L’insostenibile leggerezza della giustizia artificiale

Reblogged from Scienza in Rete

Ogni giorno, i giudici sono chiamati a deliberare il futuro di un uomo e di una donna che ha commesso un reato sulla base del rischio che se rilasciato ne compia un altro. Questioni come “quanti anni dovremmo dare a una donna bipolare condannata per omicidio?”, “Dovremmo mandare in galera un giovane stupratore in attesa di processo e quindi innocente fino a sentenza, o rilasciarlo su cauzione con la possibilità che stupri altre donne se colpevole?”.

Forse non tutti sanno che le corti americane a partire dagli anni Ottanta, per assicurarsi che i giudici trattassero equamente tutti gli imputati, hanno iniziato a richiedere al personale delle prigioni di raccogliere dati sulle finanze degli imputati, sulle loro famiglie, sugli amici, su eventuali storie di droga e sui precedenti crimini, per provare a quantificare il rischio possibile di recidiva. Negli anni però da carta e penna si è passati ai computer. Da anni i tribunali americani fanno uso di sistemi algoritmici di Intelligenza Artificiale – per lo più tool privati – per profilare il livello di rischio di recidiva, valutando una serie di indicatori socio-economici. Uno studiopubblicato in questi giorni su Science suggerisce che questo ampio utilizzo di questi strumenti per valutare la possibilità di recidiva, non è migliore – per citare alla lettera – “di un gruppo di persone che possiedono solo alcune informazioni chiave”.

Già nel 2016 un’inchiesta di ProPublica, noto giornale investigativo americano, aveva evidenziato che il sistema denominato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) esprimeva fortissimi bias etnici: di fatto le persone afroamericane erano bollate come ad alto rischio di recidive molto di più rispetto ai bianchi. Proprio questa inchiesta ha dato il via allo studio ora pubblicato su Science condotto da Julia Dressel del Dipartimento di Computer Science del Dartmouth College, che si è posta la domanda più basilare: gli algoritmi riescono davvero a prevedere meglio della mente umana come andranno le cose, cioè in questo caso se la persona lasciata libera compirà un altro crimine una volta rilasciata oppure no?

Read More

Annunci

IA: Come cambia lo sviluppo di farmaci

Reblogged from Forward – Recenti Progressi in Medicina

Il drug discovery con il machine learning: una strada percorribile o una scatola nera?

L’idea alla base dell’utilizzo dell’intelligenza artificiale in farmacologia è di semplificare la complessità e far emergere potenziali linee di ricerca che altrimenti “a occhio nudo” i ricercatori difficilmente sarebbero in grado di individuare. Come se l’universo di proteine nascondesse messaggi scritti con inchiostro simpatico, invisibili ai più, e che richiedono degli occhiali nuovi per essere interpretati.

Il primo bias nello sviluppo di un farmaco È proprio l’avvio della ricerca, l’idea di provare a lavorare su una certa proteina e non su un’altra. L’intuizione, seppure evidence based. Una volta selezionata la proteina da cui partire, si innesca quel noto processo a imbuto che, sfortunatamente solo in pochi casi, può tradursi in un medicinale vero e proprio. Un processo però lungo, anche fino a dieci anni, e che lascia dietro di sé numerose “vittime”, molecole cioè candidate a diventare un farmaco ma che per diverse ragioni si rivelano non adatte e quindi vengono scartate. Per citare una statistica nota, in media solo il 14 per cento delle molecole che supera la prima fase di test è adatta a diventare un farmaco.

Anche ai non addetti ai lavori risulta evidente che l’intero processo è condizionato dal limite umano nel gestire e setacciare grandi moli di dati. Nella fattispecie, capire fra miliardi di proteine esistenti qual è la candidata più adatta per bersagliare la malattia che vorremmo colpire. Il risultato è che siamo obbligati a utilizzare un processo top-down, quando invece a rigor di logica dovremmo procedere bottom-up.

Nel 2017 Jean Louis Reymond dell’Università di Berna ha pubblicato una “mappa” delle molecole note: un database di 166 miliardi di composti organici chimicamente realizzabili fino a 17 atomi che ha chiamato Gdb-17. È lapalissiano che la mente umana non riesca a confrontare nei tempi dettati dalla ricerca scientifica una mole così imponente di composti per individuare i migliori candidati sui quali puntare e investire a partire dalle caratteristiche del bersaglio terapeutico.

Read More