[§) 5 anni da “data journalist”. Qualche considerazione (e un po’ di ottimismo)

Schermata 2018-07-03 alle 16.47.24.png
Credits: Bansky, naturalmente.

Alla fine del 2013 stavo discutendo la mia tesi di master in giornalismo scientifico digitale alla SISSA di Trieste, che aveva come tema proprio un case study di data journalism*, e ricordo di essermi molto seccata all’ennesima obiezione da parte della commissione sul fatto che questo “datajournalism” di cui anche in Italia si era cominciato a parlare da circa un anno, non fosse in realtà nulla di che. Che fosse maggiore l’enfasi che mettevamo sul nome rispetto alla rivoluzione concettuale sul modo di fare giornalismo. “I dati sono sempre esistiti, e anche excel sono almeno vent’anni che lo usiamo” mi veniva detto. Insomma la solita vecchia storia stat rosa pristina nomine, ecc ecc.

Sul momento mi ero arrabbiata perché come sempre quando ci si trova a vivere dal di dentro l’inizio di qualcosa che si sta formando, quando si respira entusiasmo da tutte le parti, è difficile non pensare di trovarsi nel bel mezzo di una rivoluzione. Ora, a 5 anni di distanza da che ho iniziato a occuparmi di datajournalism, continuo ad arrabbiarmi quando mi si dice “ma dai, che datajournalism, i dati sono sempre esistiti”, ma oggi mi arrabbio per motivi diversi rispetto a 5 anni fa.

In sintesi, quando ho cominciato rispondevo a questa obiezione asserendo che l’elemento rivoluzionario del dataj era la possibilità di accedere grazie al web a un’enorme mole di dati, che possono essere studiati e analizzati grazie ad altri super tools e poi visualizzati in maniera incredibile tramite ulteriori strumenti come Tableau Public, rendendo la navigazione interattiva. Nella mia mente avevo le inchieste del Data blog del Guardian, di The Upshot del New York Times, di Pro Publica, di The Atlantic e via dicendo, che durante le lezioni del master mi avevano aperto il primo varco sull’universo del data. Oppure i racconti di come venivano costruite queste grandi inchieste data-driven, direttamente dalla voce di Simon Rogers e di Aron Pilhofer che ho sentito per la prima volta parlare a pochi metri da me al Festival del Giornalismo di Perugia.

Non sto dicendo che 5 anni dopo io abbia smesso di pensare che questa sia una prospettiva importantissima per il datajournalism, ma credo almeno altrettanto nel “datajournalism quotidiano“, nell’importanza cioè dei piccoli lavori, degli articoli più agili dove si usano i dati per contestualizzare le storie, le affermazioni di questo o di quel politico, i fatti spiccioli. Ecco, se discutessi ora la mia tesi di master risponderei che ha senso parlare di datajournalism come metodo per contribuire a diffondere la cultura dell’argomentazione, che trovo sia assai deficitaria fra la popolazione. Contribuire a divulgare l’abitudine di riferirsi a una fonte quando si parla, di utilizzare il metodo scientifico anche quando si fa informazione non scientifica.

Per questo credo che nel 2018 il dataj come categoria a se stante nel giornalismo esista ancora, purtroppo, e che la risposta passi prima di tutto nel datajournalism oserei dire da cronaca.

È evidente qui che il fattore economico è centrale. Se vivessimo in un momento storico di vacche grasse per l’editoria, in cui si comprendessero davvero le potenzialità dell’innovazione invece di fondare a ogni piè sospinto nuovi giornali di carta dal profumo antico, ogni giornale potrebbe finanziare inchieste su inchieste e pagarle quanto richiede un complesso lavoro di analisi dei dati. A questo proposito sento spesso citare il fatto che il data non paghi e per certi versi è così: sono ben rari gli editori disposti a pagare quello che richiede un complesso lavoro di analisi dei dati. Spesso perché loro stessi non hanno idea di che cosa significhi in termini di tempo lavorare con i dati. Questo però non significa che fare dataj non paghi. Io, come altri, vivo del mio mestiere di giornalista freelance e  in questi 5 anni ho collaborato con una quindicina di diversi giornali e riviste occupandomi di data (del dataj da cronaca, come lo intendo io) e ho sempre concordato un rapporto sforzo-retribuzione dignitoso per il mio “dataj quotidiano”.

Certo, il problema enorme di far capire alle redazioni italiane quanto è importante l’approccio data-driven rimane, e le cose non sono molto diverse rispetto a 5 anni fa. Mentre il Wall Street Journal ha aperto un Lab Ricerca e Sviluppo che fa delle cose pazzesche con l’intelligenza artificiale in redazione, qui ancora c’è chi paga gli articoli a riga.

Due aspetti su cui ho parzialmente cambiato idea rispetto a 5 anni fa sono per prima cosa il ruolo centrale della visualizzazione all’interno del datajournalism, che ora per me è addirittura secondaria. Secondo, l’importanza di avere a che fare con tanti dati. Ora penso che si possa fare un pezzo di datajournalism utile anche senza impazzire. Che sia più importante, semmai, incrociare più fonti diverse per testare la validità di un’osservazione. Poi certo, qualora ci fossero modo e risorse per mettere in campo un’inchiesta complessa, ben venga.

Iniziamo dal discorso sulla visualizzazione, e in particolare sulla mappa. Quando ho cominciato sono stata fortunatissima: mi sono ritrovata a frequentare il primo master giornalistico in Italia dove si è cominciato a parlare di dataj, dal momento che vi insegnavano i professionisti che in quel momento (era il 2012) avevano da poco iniziato a scoprire questa “novità” che da un paio d’anni aveva iniziato a far parlare di sé grazie ai visionari editor del Guardian, del New York Times, di Pro Publica, The Atlantic. Parlo del gruppo dell’allora redazione di Wired che aprì il primo datablog grazie alla lungimiranza di persone come Guido Romeo ed Elisabetta Tola, che furono i miei insegnanti al master. In quello stesso periodo ho iniziato a frequentare quello che allora era l’appena nato gruppo bolognese di Spaghetti Open Data, un team che eccezionale è dire poco, fra cui si annoverano nomi ben noti del mondo del dataj italiano: i Dataninja Andrea Nelson Mauro e Alessio Cimarelli, Matteo Brunati ed Erika Marconato, Andrea Borruso, Carlo Romagnoli, Giulia Annovi e tanti altri che non posso nominare tutti se no questo post diventa un libro. Grazie a loro ho partecipato ai miei primi Hackathon e ho messo il naso (anche se ci ho sempre capito poco) nel meraviglioso mondo dell’Open Data.

Per me sono stati mesi, anzi direi un paio d’anni, incredibili, dove ho capito che il data (quello senza j) è un movimento eterogeneo, dalle molte anime, e una di queste è il datajournalism. Fare data journalism però non è mappare, non è (solo) fare bellissime visualizzazioni, non è raccontare i dati. Dataj per me è prima di tutto raccontare i problemi e le criticità che emergono dai dati.

Un ultimo aspetto su cui mi capita di riflettere è la differenza fra fact checking e datajournalism. Penso sarete tutti d’accordo con me se dico che oggi si parla tanto di fact checking, di sicuro più di quanto si parli di datajournalism. Di fatto però si tratta di due anime del giornalismo molto simili, fondate entrambe sulla necessità  di fondo di fare chiarezza e mettere a tacere le baggianate. (In realtà ho scoperto nella mia esperienza che dal punto di vista del giornalista fare un pezzo di dataj e uno di fact checking richiede un tipo di lavoro diverso, ma non mi dilungo qui, semmai ci dedicherò un altro post.)

In ogni modo quello che secondo me ha differenziato la percezione di fact checking e data journalism sono stati proprio questi due aspetti: la visualizzazione da una parte e l’idea di dover per forza saper gestire miliardi di occorrenze su excel dall’altra. Non mi spiego in altro modo il fatto che spesso quando mi capita di parlare con colleghi anche molto in gamba, alla mia domanda “ma perché non fai una cosa data driven su questo  tema che segui?” la risposta è “no no, con i numeri non voglio avere a che fare, non sono portat*.” Però magari sono bravissimi fact checkers nei loro pezzi.

Per concludere questo sproloquio, dopo 5 anni di data journalism quotidiano mi sento di dire che il datajournalism non è decollato. Siamo in pochissimi a occuparcene nel nostro lavoro quotidiano, direi che bastano due mani a farla grande per contarci tutti. Ed è un’occasione persa. Vale invece la pena farsi avanti, impegnarsi, perché lo spazio e soprattutto gli spunti per iniziare a lavorare un po’ tutti data-driven ci sono anche qui.

A patto – a mio avviso – che ci si specializzi.

La mia modestissima opinione è che padroneggiare gli strumenti da soli non basti più, appunto perché non erano gli strumenti la novità. Il data-journalism di per sé oggi non può (più) dar diritto ad alcun lavoro se non abbiamo ben chiari i problemi che vogliamo raccontare. Se puntiamo sulla combo invece, credo che di prospettive ce ne siano.

@CristinaDaRold 


(* La tesi si intitolava #NonSoloSci e verteva sun un lavoro di data journalism sulle conseguenze ambientali ed economiche del turismo di massa in Val Gardena. Lo potete trovare in due puntate qui

Se sei capitato qui tramite social e non sai chi sono e quindi perché sto blaterando di giornalismo, puoi trovare qualche info qui.

Annunci

#jesuischarlie

Come scriveva ieri a mio avviso giustamente Fabio Chiusi su Wired Italia, non siamo tutti Charlie, proprio per niente. Ma anche se non è certo da tutti esserlo nella propria attività quotidiana, così intensamente e indefessamente, è un dovere secondo me dimostrare vicinanza, fare comunità intorno a un fatto che a me toglie ogni parola, e direi quasi ogni fonte di pensiero razionale che la genera.

Un hashtag è niente, ma per me allo stesso tempo doveroso. #jesuischarlie

charlie

#acquathon: il mio primo Hackathon day

800px-Open_Data_stickersTorno ora da Perugia, dopo aver vissuto appieno questo mio primo festival del giornalismo. Eccezionale, non mi vengono altre parole, anche perchè a caldo non ci riesco mai, devo far depositare pensieri e idee.

Una cosa invece non voglio che depositi: il mio primo hackathon day. Onestamente non trovo una definizione precisa ed esaustiva per definire un hackathon, direi solo che è stata una giornata in cui alcuni appassionati di giornalismo, ingegneri, informatici (e pure filosofi!) si sono incontrati a lavorare alacremente per raccogliere e sistematizzare dati provenienti da vari database, in modo da riuscire a mappare la situazione italiana intorno ad una data questione. Un po’ articolata come definizione ma sì, può andare. Il mio gruppo aveva ed ha ancora – visto che il lavoro è solo all’inizio – l’obiettivo di costruire una mappa che risponda alla seguente domanda: qual è la situazione degli acquedotti nei capoluoghi di provincia italiani? Altrimenti detto: quali sono i risultati delle analisi chimico-fisiche della acqua che beviamo? Chi fa queste analisi? E ovviamente, da buoni giornalisti: ci sono delle sostanze che hanno delle concentrazioni oltre i limiti di legge?

Nel dettaglio, siccome in Italia c’è l’obbligo di rendere pubblici questi dati, si è trattato di andare a cercare online i database più affidabili relativi ad ogni capoluogo di provincia, selezionare i parametri chimici che ci sono sembrati (o per lo meno sono sembrati ai nostri due biologi di fiducia) più significativi, e cominciare poi a creare una nostra tabella, in base alla quale poi poter costruire una mappa da visualizzare. Abbiamo scoperto che i parametri chimici delle analisi dell’acqua sono molti, troppi, e per questa ragione siamo partiti scegliendone uno in particolare: la concentrazione dei nitrati.

Nove ore di lavoro “matto e disperatissimo” dopo le quali sono emersi dei risultati interessanti, come potete vedere dalla MAPPA (seppur provvisoria, visto che il lavoro non è ancora completo) che ne è emersa e che è consultabile, insieme agli altri progetti sul sito dataninja.it.

Devo dire che sono davvero entusiasta di questo primo lavoro, sia perchè mi ha permesso di entrare in contatto con persone interessanti, come alcuni membri del gruppo Spaghetti Opendata, sia perchè mi ha fatto gettare uno sguardo su questo universo del data journalism che da qualche tempo ha cominciato ad appassionarmi. Ci siamo ripromessi di non lasciare il lavoro incompleto, perchè ne vale proprio la pena…perciò: stay tuned, che #acquathon ritornerà con una prossima puntata even more enjoyable!

Credits: Wikipedia Commons, Open Data Stickers by Jonathan Gray

Scrivere di Fisica: qualche dritta

800px-Plastic_Protractor_Polarized_05375La settimana scorsa era il grande giorno. Era prevista la lezione del corso “comunicare la fisica” del nostro master, il momento in cui avremmo avuto i feedback delle nostre stime: in particolare per chi segue questo blog, di Moliendo cafè e Fin che la placcava, lasciala andare. Riassumo qui alcune delle dritte che ci hanno dato i nostri “profs” per scrivere di fisica – ma più in generale di scienza – evitando di ritrovarsi con prodotti approssimativi e grossolani.
Penso possa servire se chi legge intende occuparsi di queste faccende con serietà:

Cominciamo con il “contorno” dell’opera, come si sottopone un documento tramite email. Anzitutto è opportuno mettere un nome ordinato al file, non nomi generici del tipo “stime Cristina”, ma qualcosa che contraddistingua il tuo documento, come ad esempio la data e accanto il cognome dell’autore. Secondariamente, per entrare nel merito del documento, è buona norma scrivere la data, il nome dell’autore e poi sviluppare il pezzo, curandosi di salvare il tutto in pdf.

Ma veniamo ai contenuti. Il punto centrale è il caro vecchio rasoio di Occam: entia non sunt moltiplicanda praeter necessitatem, cioè non introdurre elementi che non servono. Sembra una banalità, ma spesso rileggendo un pezzo io per prima mi rendo conto che molte cose si possono tagliare. E inaspettatamente, fare ciò può risultare più complesso che scrivere un’ulteriore pagina di dati.

Un altro consiglio utile è usare delle immagini evocative, qualcosa che aiuti il lettore a figurarsi quantitativamente le questioni di cui si parla. La cosa importante è però non dimenticarsi di riprenderle nel corso del pezzo, per una maggior incisività.

Inoltre – sempre per aumentare l’efficacia del pezzo- è importante mettere dei link alle parole chiave del pezzo (o del post) che rimandi ad ipertesti, come approfondimento su questioni di cui non si è potuto parlare (a causa del rasoio di Occam di cui sopra).

Infine – last but not least – sfruttare l’attualità. Spesso, far riferimento a questioni che hanno toccato il senso comune (senza mancare di tatto, of course) può aiutare il lettore a figurarsi quello che sta leggendo e soprattutto a ricordarlo meglio una volta terminato l’articolo.

Nella speranza che fare giornalismo e comunicazione scientifica non sia solo intrattenimento. Anche nel profondo dinamismo del nostro secolo.

Credits:Wikipedia Commons, by Nevit Dilmen