Mille persone hanno valutato la moralità di OpenIA. Risultato: non siamo d’accordo su sesso, politica e scienza. 

Il vecchissimo problema: chi stabilisce le regole morali che dovrebbero guidare il comportamento di una macchina? OpenAI ha chiesto a delle persone umane di valutare le risposte del sistema, e non siamo d’accordo su ciò che riguarda sesso, politica e pseudoscienze, cioè sui tre aspetti cruciali dell’esistenza, e che coinvolgono il concetto di credenza.

Il progetto Collective Alignment ha coinvolto oltre mille persone distribuite in diciannove Paesi del mondo (vi sono anche paesi europei, ma l’Italia non compare), e le ha invitate a riflettere su come dovrebbe comportarsi un modello linguistico ideale. Con questo progetto, OpenAI pare scegliere di non limitarsi a un’autoregolamentazione tecnica, ma di avviare un confronto che, se portato avanti, potrebbe cambiare il modo stesso in cui le tecnologie vengono costruite e governate.

Continua su Il Sole 24 Ore

In arrivo il controllo parentale su OpenAI. È sufficiente? 

In questi giorni OpenAI ha annunciato che entro la fine del 2025 introdurrà un pacchetto di strumenti pensato per rendere l’uso di ChatGPT più sicuro per gli adolescenti e più trasparente per le famiglie.
Il nuovo sistema consentirà ai genitori di collegare il proprio account a quello dei figli (che possono iscriversi a ChatGPT dai 13 anni in su!) attraverso un semplice invito via email. Una volta attivato, sarà possibile stabilire regole di utilizzo differenziate per fascia d’età, che saranno impostate come predefinite per garantire una maggiore protezione. I genitori avranno inoltre la possibilità di gestire direttamente alcune funzioni sensibili, come la memoria e la cronologia delle chat.

Continua su Il Sole 24 Ore

Con l’Intelligenza Artificiale proteine anti E. coli in pochi secondi 

Un nuovo studio potrebbe segnare un punto di svolta nella lotta contro i superbatteri e altre patologie: grazie all’Intelligenza Artificiale, il design di proteine su misura è oggi possibile in tempi impensabili fino a pochi anni fa. Un gruppo di ricercatori australiani ha realizzato, per la prima volta, una proteina biologica pronta all’uso capace di uccidere batteri resistenti agli antibiotici come l’Escherichia coli, servendosi dell’Intelligenza Artificiale. Lo studio, pubblicato su Nature Communications, rappresenta un’importante pietra miliare nella ricerca biomedica e segna l’ingresso dell’Australia tra i Paesi in grado di progettare proteine terapeutiche in modo rapido e scalabile grazie all’AI, insieme a Stati Uniti e Cina.

Continua su Il Sole 24 Ore

La FDA statunitense ha iniziato a usare l’Ai per supportare i revisori 

È di giugno l’annuncio della Food and Drug Administration (FDA) – l’EMA americana – di aver iniziato a utilizzare un software di intelligenza artificiale per supportare i dipendenti dell’agenzia – dai revisori scientifici agli ispettori – a lavorare in modo, scrivono, più efficiente. Il sistema si chiama Elsa, ed è stato sviluppato all’interno di un ambiente GovCloud che garantisce una piattaforma protetta per l’accesso dei dipendenti FDA ai documenti interni, mantenendo tutte le informazioni all’interno dell’agenzia. I modelli alla base dello strumento non vengono addestrati sui dati forniti dall’industria regolamentata, assicurando così la protezione di ricerche e dati sensibili gestiti dallo staff FDA.

Continua su Il Sole 24 Ore