≈ Gezocht: passie

Ik heb onlangs We Feel Fine, an Almanac of Human Emotion gekocht. Zorgvuldig geaggregeerde of curated user generated content en infografieken in een prachtig vormgegeven boek. Meer heb ik niet nodig om overstag te gaan.

(Officiële embed met Amazon-link van http://wefeelfine.org.)

Since August 2005, We Feel Fine has been harvesting human feelings from a large number of weblogs. Every few minutes, the system searches the world’s newly posted blog entries for occurrences of the phrases “I feel” and “I am feeling”.

(…)

The result is a database of several million human feelings, increasing by 15,000 – 20,000 new feelings per day. Using a series of playful interfaces, the feelings can be searched and sorted across a number of demographic slices, offering responses to specific questions like: do Europeans feel sad more often than Americans? Do women feel fat more often than men?

(…)

At its core, We Feel Fine is an artwork authored by everyone. It will grow and change as we grow and change, reflecting what’s on our blogs, what’s in our hearts, what’s in our minds. We hope it makes the world seem a little smaller, and we hope it helps people see beauty in the everyday ups and downs of life.

Sinds kort is er in de online journalistiek een debat over het Grote, Alwetende Algoritme™, dat op basis van realtime zoekresultaten dicteert over welke onderwerpen journalisten moeten schrijven.

Een project zoals We Feel Fine, dat onmogelijk zou zijn geweest zonder algoritmes, geeft tegengas tegen de paranoia over een ‘slecht’ algoritme. De fout ligt niet bij de technologie, maar bij de mensen die technologie gebruiken.

De kunst van aggregeren

Een ander project dat het bewijs is dat aggregeren van andermans content meer kan zijn dan de som van het geheel, is Pictory. (Gemaakt in Django overigens.)

San Francisco – Pictory (20091222)-thumb

Pictory San Francisco.

Aggregeren is voor journalisten — als het al überhaupt wordt gedaan — nog al te vaak het archiveren en publiceren van interessante links, quotes, multimedia. Projecten zoals We Feel Fine en Pictory tonen aan dat het op een veel creatievere manier kan. Een manier die veel duurzamer is, dan het verzamelen van links.

Een reden waarom aggregeren zo moeilijk is voor (online) journalisten, is dat ze te weinig zijn gespecialiseerd in 1 onderwerp. De moderne journalist is een generalist, en moet van alles iets weten. Maar die expertise alleen is niet genoeg. Er moet ook passie zijn over het onderwerp:

Topic times voice. Or, if you’re a little bit more of a maverick, obsession times voice. So what does that mean? I think all of the best nonfiction that has ever been made comes from the result of someone who can’t stop thinking about a certain topic — a very specific aspect of a certain topic in some cases. And second, they got really good at figuring out what they had to say about it.

Daringfireball.net

Bovenstaand citaat is op veel zaken toepasbaar en zeker op online journalistiek. Het draait niet om de vorm (blogs, video, infografieken, link journalism), het draait om passie.

December 22nd, 2009  |  Published in ≈ Terzijdes
Tags: , , ,

≈ De technologie van ‘Titanics’ versus The Huffington Post & Talking Points Memo

Het kan aan mij liggen. Maar ik vind dat serieuze journalistiek, serieuze technologie verdient. Ieder klein kind kan een weblog beginnen en volplakken met widgets, afbeeldingen en youtube-clipjes.

Waar het mij om gaat is het volgende:

Newspapers need to stop the story-centric worldview.

Adrian Holovaty

Een ongeval heeft een plaats, tijdstip, schade, slachtoffers, etc… Een verkiezingsbelofte van Obama heeft een datum, gaat over een bepaald thema, is al dan niet uitgevoerd…

Het gaat om gestructureerde (meta)data, niet om losse elementen in een zee van tekst. En daarvoor heb je de juiste technologie nodig, het juiste content management systeem.

De Titanic-denkfout

Naast die quote van Adrian Holovaty, is er ook nog een andere waar ik al een tijdje op zit te sjieken. De analyse van Arthur Sulzberger Jr., de uitgever van The New York Times:

“The best analogy I can think of is — have you ever heard of the Titanic Fallacy?” he asked. We hadn’t. “What was the critical flaw to the Titanic?” We tried to answer: Poor construction? Not enough life boats? Crashing into stuff? “A captain trying to set a world speed record through an iceberg field?” he said, shaking his head. “Even if the Titanic came in safely to New York Harbor, it was still doomed,” he said. “Twelve years earlier, two brothers invented the airplane.”

Sulzbergers analyse slaat op iets compleet anders, maar ik vind dat analyse ook kan worden doorgetrokken op technologisch vlak. Ieder mediabedrijf is op dit moment zware inspanningen aan het leveren om hun print- of andere redactiesystemen te koppelen aan of te integreren in hun content management systeem.

De inspanningen liggen daar op het hergebruik van content. Of in de woorden van Adrian Holovaty: repurposing a big blob of text in verschillende formats, print, web, teletekst, mobiel, etc…

Op zich is daar niks mee. Maar het zal verder moeten gaan dan dat. Een nieuwssite mag dan wel artikels uitspuwen, het is een Titanic als het die data niet met elkaar linkt.

De printdino’s versus de jonge wolven

Ik denk dat een belangrijk verklaring van het relatieve succes ( in vergelijking met de sites van de sites van de traditionele media, de printdino’s, Titanics, etc…) van web native projecten als The Huffington Post, Talking Points Memo, Politico ligt in hun IT-strategie.

Ze innoveren meer en sneller dan hun traditionele concurrenten op het vlak van bezoekersanalyse, mashups en crowdsourcing.

The Huffington Post en Talking Points Memo zijn echter nog niet volwassen. Beiden draaien op de (uitstekende) blogsoftware Movable Type. Zo’n platform is uitstekend om verhalen te spuwen, maar minder geschikt om verschillende soorten data aan elkaar te koppelen. Stilaan lopen zij tegen de grenzen van hun platform aan. Daarom experimenteert Talking Points Memo met Ruby on Rails.

De meeste sites van jonge wolven draaien op niet meer dan dat, blogsoftware. Het is op dat vlak waar traditionele sites met de juiste technologie die jonge wolven — die vaak veel kleinschaliger werken — een lesje kunnen leren.

Traditionele media zijn eigenlijk fabrieken die op grote schaal kwalitatieve en gestandaardiseerde informatie produceren. Koppel de meta-data van die items aan elkaar en er ontstaat een web waar die jonge wolven voorlopig niet aan kunnen tippen.

Jammer genoeg is die strategie ver te zoeken bij de meeste traditionele mediasites. Het blijft enkel bij content uitspuwen. De jonge wolven zijn voorlopig gebonden door de eenvoud van hun systemen, maar ze leren snel. Héél snel.

The Texas Tribune

The Texas Tribune is een non-profit site ( gebouwd in Django) die nog maar net is opgericht, en absoluut niet de laatste zal zijn in zijn soort. Het is een nieuwsorganisatie die het internet snapt: veelvuldig gebruik van blogs, data, aggregators, etc… Of in de woorden van 1 van hun ontwikkelaars, Chase Davis:

1. We decided early on that the Texas Tribune needed room to evolve. It’s a startup, and nobody has any idea what it’s going to look like in six months. That being the case, our goal was to build them a sandbox — something that could evolve as their organization evolved. (…) We’re not limited by pre-existing modules or dependency issues you find with off-the-shelf systems.

2. The Tribune’s plan going forward is to integrate tremendous amounts of data into their coverage. Their lawmaker directory is one example of that, but they have much more ambitious plans for campaign finance records, financial disclosures, lobbying reports, etc. Rather than segregating that data by walling it off in its own ghetto.

Al vanaf dag 1 legt The Texas Tribune meer innovatie aan de dag, dan de meeste traditionele nieuwssites die al een jaar of 10 bestaan. Het is niet toevallig dat het personeel van The Texas Tribune voor meer dan een vierde uit ontwikkelaars bestaat.

Newspapers need to stop the story-centric worldview.

Adrian Holovaty

De jonge wolven snappen het al en gaan op zoek naar de juiste tools. De sites van de traditionele (kwaliteits)media gaan moeten volgen. Of ze het nu willen of niet.

≈ De kost van onderzoeksjournalistiek

Enkele weken geleden had de Britse krant The Telegraph het misbruik van onkostennota’s door Britse politici aan het licht gebracht na het verwerken van een berg onkostennota’s. Dat dossiervreten heeft hen de scoop van het jaar opgeleverd.

Concurrent The Guardian was op alle vlakken geklopt — The Telegraph heeft de documenten al een tijd in het bezit en uitvoerig uitgeplozen — en probeert het onderzoek van The Telegraph in te halen met hulp van hun bezoekers nu de Britse overheid alle nota’s heeft vrijgegeven.

Op dit moment hebben 21.317 mensen 180.299 onkostennota’s van de 457.153. En dat in de tijdspanne van een week.

Het lijkt een titanenwerk en een dure grap om zoiets technisch voor elkaar te krijgen. Niets is minder waar. The Nieman Journalism Lab onderzocht het:

Your cost for the operation? One full week from a software developer, a few days’ help from others in his department, and £50 to rent temporary servers.

Waarom het zo goedkoop en efficiënt kan? 1. Simon Willison; een redelijk geniale ontwikkelaar. 2. Django; een open-source framework dat zich leent om razendsnel web apps te bouwen. 3. De cloud computing services van Amazon.

Document Cloud

The New York Times en Propublica — een stichting die onderzoeksjournalistiek verricht — , hebben overigens fondsen gekregen voor hun Document Cloud- project. Dat is een platform dat het delen en annoteren van documenten moet bevorderen zoals The Guardian heeft gedaan.

60 euro versus 40.000 euro

Toegegeven, het experiment van The Guardian is anders en minder spannend dan de onderzoeksjournalistiek die ons in de literatuur en in film — denk maar aan All The President’s Men — wordt voorgehouden. Maar die, eh, old school journalistiek dreigt onbetaalbaar te worden.

Een Noorse journalist heeft geschat dat je ongeveer 30.000 tot 40.000 euro moet uittrekken voor onderzoeksjournalistiek. Dat is journalistiek waar je een persprijs mee kan winnen.

Het gebruik van crowdsourcing en open source zal de journalistiek niet redden of zorgen voor explosie van onderzoeksjournalistiek, maar het kan de boel wat betaalbaar houden.

En in het huidig economisch klimaat, is dat al veel.

≈ Over de infografieken bij The New York Times

Voor wie meer wil weten over hoe al die machtige infografieken op de website van The New York Times tot stand komen: Een razend interessant interview met Aron Pilhofer, editor of Interactive Newsroom Technologies, bij The New York Times.

Everything we use is free and open-source. Our platform is Ruby on Rails backed by Mysql databases running on Ubuntu servers. The cost here isn’t software, or even hardware, which is relatively cheap these days through hosting companies like Amazon EC2 (on the high end) or Slicehost (on the low end).

≈ GTD, de weekend-editie

  • Lost SE4EP04 kijken
  • Habari, installeren
  • Ruben betalen
  • Drupal
    • Ontbrekende modules en strings naar het Nederlands vertalen
    • Dynamische tabs aan de gang krijgen
    • Een eerste versie van handleiding maken
    • Content Types aanmaken
  • Fien en Jürgen in Brussel gaan bezoeken
  • Met Tom naar The Wire kijken
  • Eens meer dan 5 uur per nacht slapen
  • Prutsen met Django en inspectdb
  • Drie blogposts afwerken
February 23rd, 2008  |  Published in ≈ Terzijdes
Tags: , , , ,

≈ Een Captain Subtext doen

Sean Blanda vertaalt jobaanbiedingen voor internet-redacteurs:

“The ideal candidate will have a minimum of three to five years experience building Web sites plus two years combined experience in object oriented languages such as Python, Java, C#, or Ruby. Experience using XML, HTML, XHTML, CSS, AJAX, and/or JavaScript ” = We are looking for computer jesus.

En ondertussen zit ik al drie uur te prutsen om een SQL-databestand (geëxporteerd uit een Mysql-database) te converteren naar een SQLite-database. Het is een lang verhaal, maar ik probeer een webapplicatie te maken in het Python-framework Django en daarvoor moet ik een verbinding kunnen maken met een database. Django werkt out of the box met sqlite en voor mysql moet je de “mysql-python”-module bij installeren. Die kan ik echter niet compileren op mijn iBook omdat ik mijn developers tools niet heb geïnstalleerd, en mijn OS X dvd ligt bij Tom.

Dus geen Django met mysql. Dan maar met sqlite. Het importeren van een csv-bestand lukt me echter voorlopig enkel in phpmyadmin (mysql). Dat sql bestand echter converteren naar een formaat dat geschikt is voor sqlite lukt helemaal niet. En dat zou voor een gewone programmeur een fluitje van een cent moeten zijn.

Ik denk niet dat het helpt om een ongelofelijke farizeeër te zijn in plaats van een computer jesus.

February 19th, 2008  |  Published in ≈ Terzijdes
Tags: , , ,

≈ EveryBlock, wat gebeurt er in je wijk?

EveryBlock, een aggregator-site die zoveel mogelijke informatie over wijken in drie Amerikaanse steden* bundelt, is sinds een dag ofzo online. Hoed af.

* Chicago, New York en San Francisco

January 24th, 2008  |  Published in ≈ Terzijdes
Tags: , ,

≈ Django brabbelen & Google maps API

Deze middag heb ik een beetje met Django en de API van Google Maps geprutst. Het is voor een van mijn weinige voornemens van 2008.

Volgend jaar wil ik één ‘mashup’ of een andere internettoepassing maken die een verhaal, reportagereeks, etc op een andere, maar nog steeds journalistieke manier benadert. Hint: chicagocrime.org.

Op momenten zoals vanmiddag, blijf ik het jammer vinden dat ik geen informatica of iets met webdevelopement heb gestudeerd. Mijn code nu is precies die van een peuter die op een brabbelende manier de code van voorbeeldjes probeert te herhalen.

Enfin, het is allemaal way over my head, maar internetnerd spelen is wijs!

December 22nd, 2007  |  Published in ≈ Terzijdes
Tags: , , , , ,

Filmpjes

Recente items


Over mezelf

Welkom op de persoonlijke website van Stijn F. Ik heb geschiedenis gestudeerd aan de Universiteit Gent en ik werk als journalist voor het financieel-economische weekblad Trends. Ik schrijf voornamelijk over technologie(bedrijven) en supermarkten.

Contact: stijnf apenstaart gmail punt com