Uno studio mostra come l’intelligenza artificiale superi l’uomo nella persuasione online, sollevando preoccupazioni per l’influenza dei modelli linguistici avanzati, soprattutto in ambito medico
Ne parliamo sul magazine della Fondazione Veronesi
Uno studio mostra come l’intelligenza artificiale superi l’uomo nella persuasione online, sollevando preoccupazioni per l’influenza dei modelli linguistici avanzati, soprattutto in ambito medico
Ne parliamo sul magazine della Fondazione Veronesi
Se non fosse che lo studio è apparso nientemeno che su The Lancet Digital Health a firma di ricercatori afferenti a realtà di prim’ordine, il titolo parrebbe una boutade non degna di nota in un magazine scientifico.
Sì, queste piattaforme esistono già, sono operative, si stanno espandendo. Al momento (marzo 2025) i risultati che abbiamo sono preliminarissimi, ma ci suggeriscono che ci sono più errori negli studi scientifici pubblicati di quanti – forse – immaginiamo. Black Spatula, Yesnoerror, TruLyzer, ScholarlyAI: sono solo alcune delle iniziative nate “dal basso” ossia non in seno a istituzioni scientifiche, con l’obiettivo di passare al setaccio gli articoli scientifici pubblicati per individuare eventuali errori metodologici, o addirittura di calcolo.
Il 14% degli abstract in ambito biomedico ha tracce di IA. Uno su sette – oltre 200.000 – include infatti parole rivelatrici, comuni nei testi generati da modelli linguistici di grandi dimensioni. La percentuale di abstract manipolati con l’IA sale al 40% per alcuni ambiti. Lo evidenzia un articolo pubblicato su Science, che ha studiato i cambiamenti del vocabolario in oltre 15 milioni di abstract di articoli in ambito biomedico dal 2010 al 2024 indicizzati da PubMed.
L’effetto dell’utilizzo degli LLM sulla scrittura scientifica è davvero senza precedenti e supera persino i notevoli cambiamenti nel vocabolario indotti dalla pandemia di COVID-19.
Tra tutte le 26.657 parole esaminate, i ricercatori ne hanno individuare 454 che sono apparse molto più spesso nel 2024 che in qualsiasi altro anno dal 2010. Si trattava principalmente di termini di “stile” non correlate al contenuto della ricerca e tendevano a essere verbi e aggettivi. Fra queste le più usate sono risultate essere: delves, underscores, showcasing, potential, findings, e crucial.