L’impatto sociale dell’informatica è studiato oggi da antropologi, da sociologi, da qualche filosofo, ma di fatto poco indagato da chi questa scienza la sta portando avanti, cioè dai computer scientists. Le vicende legate a Facebook lo evidenziano molto bene: si tende ad analizzare un problema una volta emerso proponendo eventuali soluzioni “migliori”, invece di far camminare alla stessa velocità tecnologia e impatto sociale di quest’ultima.
Una proposta in questa direzione viene da Brent Hecht scienziato presso la Northwestern University di Evanston, nell’Illinois, che presiede il Future of Computing Academy (FCA), un gruppo di giovani leader nel settore, membro dell’Association for Computing Machinery (ACM) di New York City. Il nocciolo della sua idea è il seguente: la comunità di computer scientists dovrebbe modificare il proprio processo di peer review per garantire che i ricercatori rivelinoeventuali conseguenze negative sulla società del loro lavoro.
La FCA ha iniziato essa stessa a dare il buon esempio: il 17 luglio ha pubblicato una versione aggiornata del proprio codice etico, che era stato riformulato l’ultima volta nel 1992. Le nuove linee guida chiedono ai ricercatori di essere attenti a come il loro lavoro può influenzare la società, adottando misure per proteggere la privacye rivalutare continuamente le tecnologie il cui impatto cambierà nel tempo, come quelle basate sull’apprendimento automatico, il machine learning.