Quante morti premature potevamo evitare nel 2015?

APPROFONDIMENTO – Nei giorni scorsi Eurostat è stato lapidario: una morte su 3 avvenuta in Europa nel 2015 prima dei 75 anni (570 000 persone) poteva essere evitata, perché le risorse per farlo, in termini di conoscenze mediche e tecnologiche non mancano.

Il comparto delle malattie cardiovascolari è al primo posto: gli attacchi di cuore fatali evitabili sarebbero stati 180.500, il 32% del totale delle morti in persone di età inferiore a 75 anni. Seguono gli ictus (più di 89600 morti evitabili, 16% del totale), i tumori del colon-retto (più di 66800 morti evitabili prima dei 75 anni, il 12% del totale), e tumori al seno (circa 49900 decessi, il 9%), le malattie ipertensive (30400 morti premature evitabili, il 5% del totale) e infine la polmonite, che ha prodotto quasi 26000 decessi che potevamo evitare, il 5% del totale delle morti.

L’Italia in questo si trova pienamente nella media europea con circa 52.000 decessi l’anno, ma come è prevedibile i tassi di mortalità prematura evitabile variano molto da paese a paese: in Romania si sfiora il 50%, in Francia non si tocca il 25%.
Il punto è che Eurostat differenzia fra quella che è la mortalità trattabile (amenable) e quella prevenibile (preventable), che insieme costituiscono quella che definiamo – appunto – mortalità evitabile (avoidable).

Continua su Oggiscienza

In Italia i rifiuti speciali crescono ancora

Nei giorni scorsi ISPRA ha pubblicato un rapporto che fa il punto sulla situazione dei rifiuti speciali, fra quanti ne produciamo e come li trattiamo, in relazione a quanto ci impone il Programma Nazionale di Prevenzione dei Rifiuti. La cattiva notizia è che a quanto pare sia per i rifiuti pericolosi che per quelli non pericolosi siamo piuttosto lontani dal raggiungimento degli obiettivi previsti.
Il Programma Nazionale di Prevenzione dei Rifiuti fissa infatti una riduzione del 5% della produzione dei rifiuti urbani per unità di PIL, una riduzione del 10% della produzione dei rifiuti speciali pericolosi per unità di PIL e una riduzione del 5% della produzione dei rifiuti speciali non pericolosi per unità di PIL.

Riguardo ai rifiuti speciali non pericolosi, la variazione del rapporto tra produzione di rifiuti per unità di PIL, rispetto ai valori registrati nel 2010, risulta ancora positiva e quindi ancora lontana dagli obiettivi fissati dal Programma. Dal 2010 al 2011 la produzione di rifiuti speciali non pericolosi per unità di PIL è cresciuta dell’1,1%, nel 2012 dello 0,16%, nel 2013 dello 0,48%, per poi subire un’accelerata dal 2014 al 2016, dove la variazione è stata del +4,67% nel 2014, del 6,1% nel 2015 e del 7,03% nel 2016.

Continua su Rivista Micron

[§) 5 anni da “data journalist”. Qualche considerazione (e un po’ di ottimismo)

Schermata 2018-07-03 alle 16.47.24.png
Credits: Bansky, naturalmente.

Alla fine del 2013 stavo discutendo la mia tesi di master in giornalismo scientifico digitale alla SISSA di Trieste, che aveva come tema proprio un case study di data journalism*, e ricordo di essermi molto seccata all’ennesima obiezione da parte della commissione sul fatto che questo “datajournalism” di cui anche in Italia si era cominciato a parlare da circa un anno, non fosse in realtà nulla di che. Che fosse maggiore l’enfasi che mettevamo sul nome rispetto alla rivoluzione concettuale sul modo di fare giornalismo. “I dati sono sempre esistiti, e anche excel sono almeno vent’anni che lo usiamo” mi veniva detto. Insomma la solita vecchia storia stat rosa pristina nomine, ecc ecc.

Sul momento mi ero arrabbiata perché come sempre quando ci si trova a vivere dal di dentro l’inizio di qualcosa che si sta formando, quando si respira entusiasmo da tutte le parti, è difficile non pensare di trovarsi nel bel mezzo di una rivoluzione. Ora, a 5 anni di distanza da che ho iniziato a occuparmi di datajournalism, continuo ad arrabbiarmi quando mi si dice “ma dai, che datajournalism, i dati sono sempre esistiti”, ma oggi mi arrabbio per motivi diversi rispetto a 5 anni fa.

In sintesi, quando ho cominciato rispondevo a questa obiezione asserendo che l’elemento rivoluzionario del dataj era la possibilità di accedere grazie al web a un’enorme mole di dati, che possono essere studiati e analizzati grazie ad altri super tools e poi visualizzati in maniera incredibile tramite ulteriori strumenti come Tableau Public, rendendo la navigazione interattiva. Nella mia mente avevo le inchieste del Data blog del Guardian, di The Upshot del New York Times, di Pro Publica, di The Atlantic e via dicendo, che durante le lezioni del master mi avevano aperto il primo varco sull’universo del data. Oppure i racconti di come venivano costruite queste grandi inchieste data-driven, direttamente dalla voce di Simon Rogers e di Aron Pilhofer che ho sentito per la prima volta parlare a pochi metri da me al Festival del Giornalismo di Perugia.

Non sto dicendo che 5 anni dopo io abbia smesso di pensare che questa sia una prospettiva importantissima per il datajournalism, ma credo almeno altrettanto nel “datajournalism quotidiano“, nell’importanza cioè dei piccoli lavori, degli articoli più agili dove si usano i dati per contestualizzare le storie, le affermazioni di questo o di quel politico, i fatti spiccioli. Ecco, se discutessi ora la mia tesi di master risponderei che ha senso parlare di datajournalism come metodo per contribuire a diffondere la cultura dell’argomentazione, che trovo sia assai deficitaria fra la popolazione. Contribuire a divulgare l’abitudine di riferirsi a una fonte quando si parla, di utilizzare il metodo scientifico anche quando si fa informazione non scientifica.

Per questo credo che nel 2018 il dataj come categoria a se stante nel giornalismo esista ancora, purtroppo, e che la risposta passi prima di tutto nel datajournalism oserei dire da cronaca.

È evidente qui che il fattore economico è centrale. Se vivessimo in un momento storico di vacche grasse per l’editoria, in cui si comprendessero davvero le potenzialità dell’innovazione invece di fondare a ogni piè sospinto nuovi giornali di carta dal profumo antico, ogni giornale potrebbe finanziare inchieste su inchieste e pagarle quanto richiede un complesso lavoro di analisi dei dati. A questo proposito sento spesso citare il fatto che il data non paghi e per certi versi è così: sono ben rari gli editori disposti a pagare quello che richiede un complesso lavoro di analisi dei dati. Spesso perché loro stessi non hanno idea di che cosa significhi in termini di tempo lavorare con i dati. Questo però non significa che fare dataj non paghi. Io, come altri, vivo del mio mestiere di giornalista freelance e  in questi 5 anni ho collaborato con una quindicina di diversi giornali e riviste occupandomi di data (del dataj da cronaca, come lo intendo io) e ho sempre concordato un rapporto sforzo-retribuzione dignitoso per il mio “dataj quotidiano”.

Certo, il problema enorme di far capire alle redazioni italiane quanto è importante l’approccio data-driven rimane, e le cose non sono molto diverse rispetto a 5 anni fa. Mentre il Wall Street Journal ha aperto un Lab Ricerca e Sviluppo che fa delle cose pazzesche con l’intelligenza artificiale in redazione, qui ancora c’è chi paga gli articoli a riga.

Due aspetti su cui ho parzialmente cambiato idea rispetto a 5 anni fa sono per prima cosa il ruolo centrale della visualizzazione all’interno del datajournalism, che ora per me è addirittura secondaria. Secondo, l’importanza di avere a che fare con tanti dati. Ora penso che si possa fare un pezzo di datajournalism utile anche senza impazzire. Che sia più importante, semmai, incrociare più fonti diverse per testare la validità di un’osservazione. Poi certo, qualora ci fossero modo e risorse per mettere in campo un’inchiesta complessa, ben venga.

Iniziamo dal discorso sulla visualizzazione, e in particolare sulla mappa. Quando ho cominciato sono stata fortunatissima: mi sono ritrovata a frequentare il primo master giornalistico in Italia dove si è cominciato a parlare di dataj, dal momento che vi insegnavano i professionisti che in quel momento (era il 2012) avevano da poco iniziato a scoprire questa “novità” che da un paio d’anni aveva iniziato a far parlare di sé grazie ai visionari editor del Guardian, del New York Times, di Pro Publica, The Atlantic. Parlo del gruppo dell’allora redazione di Wired che aprì il primo datablog grazie alla lungimiranza di persone come Guido Romeo ed Elisabetta Tola, che furono i miei insegnanti al master. In quello stesso periodo ho iniziato a frequentare quello che allora era l’appena nato gruppo bolognese di Spaghetti Open Data, un team che eccezionale è dire poco, fra cui si annoverano nomi ben noti del mondo del dataj italiano: i Dataninja Andrea Nelson Mauro e Alessio Cimarelli, Matteo Brunati ed Erika Marconato, Andrea Borruso, Carlo Romagnoli, Giulia Annovi e tanti altri che non posso nominare tutti se no questo post diventa un libro. Grazie a loro ho partecipato ai miei primi Hackathon e ho messo il naso (anche se ci ho sempre capito poco) nel meraviglioso mondo dell’Open Data.

Per me sono stati mesi, anzi direi un paio d’anni, incredibili, dove ho capito che il data (quello senza j) è un movimento eterogeneo, dalle molte anime, e una di queste è il datajournalism. Fare data journalism però non è mappare, non è (solo) fare bellissime visualizzazioni, non è raccontare i dati. Dataj per me è prima di tutto raccontare i problemi e le criticità che emergono dai dati.

Un ultimo aspetto su cui mi capita di riflettere è la differenza fra fact checking e datajournalism. Penso sarete tutti d’accordo con me se dico che oggi si parla tanto di fact checking, di sicuro più di quanto si parli di datajournalism. Di fatto però si tratta di due anime del giornalismo molto simili, fondate entrambe sulla necessità  di fondo di fare chiarezza e mettere a tacere le baggianate. (In realtà ho scoperto nella mia esperienza che dal punto di vista del giornalista fare un pezzo di dataj e uno di fact checking richiede un tipo di lavoro diverso, ma non mi dilungo qui, semmai ci dedicherò un altro post.)

In ogni modo quello che secondo me ha differenziato la percezione di fact checking e data journalism sono stati proprio questi due aspetti: la visualizzazione da una parte e l’idea di dover per forza saper gestire miliardi di occorrenze su excel dall’altra. Non mi spiego in altro modo il fatto che spesso quando mi capita di parlare con colleghi anche molto in gamba, alla mia domanda “ma perché non fai una cosa data driven su questo  tema che segui?” la risposta è “no no, con i numeri non voglio avere a che fare, non sono portat*.” Però magari sono bravissimi fact checkers nei loro pezzi.

Per concludere questo sproloquio, dopo 5 anni di data journalism quotidiano mi sento di dire che il datajournalism non è decollato. Siamo in pochissimi a occuparcene nel nostro lavoro quotidiano, direi che bastano due mani a farla grande per contarci tutti. Ed è un’occasione persa. Vale invece la pena farsi avanti, impegnarsi, perché lo spazio e soprattutto gli spunti per iniziare a lavorare un po’ tutti data-driven ci sono anche qui.

A patto – a mio avviso – che ci si specializzi.

La mia modestissima opinione è che padroneggiare gli strumenti da soli non basti più, appunto perché non erano gli strumenti la novità. Il data-journalism di per sé oggi non può (più) dar diritto ad alcun lavoro se non abbiamo ben chiari i problemi che vogliamo raccontare. Se puntiamo sulla combo invece, credo che di prospettive ce ne siano.

@CristinaDaRold 


(* La tesi si intitolava #NonSoloSci e verteva sun un lavoro di data journalism sulle conseguenze ambientali ed economiche del turismo di massa in Val Gardena. Lo potete trovare in due puntate qui

Se sei capitato qui tramite social e non sai chi sono e quindi perché sto blaterando di giornalismo, puoi trovare qualche info qui.

Flat-tax ed equità: e se a pagare le tasse fossero solo i milionari?

La flat-tax proposta dal nuovo governo sta facendo discutere: due aliquote, una del 15% per i redditi familiari fino a 80 mila euro e del 20% per quelli superiori, miliardari compresi. L’idea di fondo, espressa dal Ministro Matteo Salvini si basa su due punti: che “tutti riescano ad avere qualche lira in più nelle tasche da spendere“, e che “è chiaro che se uno fattura di più e paga di più, risparmia di più, reinveste di più, assume un operaio in più, acquista una macchina in più, e crea lavoro in più”.

Eppure, proprio questo punto di partenza è aleatorio. Non è vero che quando la crescita c’è, tutti ne approfittano. All’interno di questo dibattito sulla flat-tax non si può non ritornare alle riflessioni proposte dal noto economista francese Thomas Piketty ne “Il Capitale del XXI secolo”, dove la questione della ridistribuzione del reddito è centrale. “Non esiste alcuna correlazione statisticamente significativa – si legge nel capitolo 14 del libro – tra il calo del tasso marginale superiore e il tasso di crescita della produttività nei vari paesi sviluppati dopo gli anni Settanta […] Il calo del tasso marginale superiore e la crescita degli alti redditi non sembrano aver stimolato la produttività”.

In sostanza, la proposta che faceva nel 2013 Piketty era la seguente: tassare solo i ricchi, ma i veri ricchi cioè i milionari, con prelievi fiscali dell’1% sulle fortune tra 1 e 5 milioni di euro e del 2% per i patrimoni al di sopra dei 5 milioni.

Il nocciolo è ripensare il tasso marginale superiore di imposta sul reddito, da applicare ai redditi più elevati. Il tasso superiore è in genere un tasso marginale, nel senso che viene applicato solo alla frazione di reddito superiore a una certa soglia. Il tasso superiore riguarda in genere l’1% della popolazione. Bene, i dati mostrano che negli ultimi trent’anni il tasso marginale d’imposta sul reddito è diminuito sensibilmente,passando – nel caso degli Stati Uniti – dal 70% al 28%, mentre secondo gli studi di Piketty e colleghi il livello ottimale del tasso superiore nei paesi sviluppato dovrebbe superare l’80%.

Continua su Il Sole 24 Ore