-
Trump, 'da Xi Jinping nessuna minaccia agli Usa su Taiwan'
-
Internazionali: Sinner-Medvedev rinviata per pioggia, domani non prima delle 15
-
Pallavolo: 3-0 alla Francia nel secondo test delle azzurre di Velasco
-
Travolta Palma d'onore a sorpresa, 'nel mio film da regista invito a speranza
-
Il programma di domani a Cannes. Driver-Johansson, IA e Bardem in gara
-
Gli Usa annunciano una proroga di 45 giorni della tregua tra Israele e Libano
-
Travolta, Palma d'onore a sorpresa, 'mi riempie di umiltà'
-
Giuria non trova accordo e il giudice annulla il processo a Weinstein
-
Internazionali: Darderi, "chiedo scusa al pubblico, ma ero senza benzina"
-
Sheinbaum parla con Trump, focus su sicurezza e commercio
-
Internazionali: Ruud 'amo l'Italia, pronto per la finale'
-
Al Salone del Libro 'Viaggiare con Leggerezza' con Ferrovie
-
Internazionali: sfuma il sogno di Darderi, Ruud primo finalista
-
A Cannes la Cina è vicina, Hollywood latita e Giappone e Asia dominano
-
Da un paradosso un laser super-preciso per studiare il cervello
-
Hit Parade, Sayf conquista subito la vetta con Santissimo
-
Il prezzo del gas chiude in rialzo oltre i 50 euro al megawattora
-
Borsa: Milano in calo con l'Europa, scivolano Stm e Buzzi
-
Media, Putin il 20 maggio da Xi, pochi giorni dopo la visita di Trump
-
'L'intelligenza artificiale aiuta il lavoro di chi comunica, ma non lo sostituisce'
-
Fissato all'11 giugno il tavolo al Mimit sulle vertenze Sulcis
-
A Cannes c'e' anche la Palestina che resiste
-
Trump, 'non voglio che Taiwan dichiari l'indipendenza e si scateni una guerra'
-
Angioplastica in ospedale per l'ex regina Margrethe di Danimarca
-
Alle sfilate di Milano addio alle pellicce
-
Borsa: Milano chiude in calo dell'1,87%
-
Il primo panda gigante in Indonesia pronto a incantare il pubblico
-
Mondiali: i convocati della Costa d'Avorio, la novità é l'interista Bonny
-
Fatti di alghe e meccanismi, i microrobot che volano in sciami
-
Il Cda di Autobrennero approva il bilancio, utile netto a 89,1 milioni
-
Giro: Vingegaard attacca sul Blockhaus e vince la 7/a tappa
-
Atletica: a Shangai parte la Diamond League, occhi su Duplantis
-
Norwegian Cruise torna a Trieste, 11 scali nel 2026 e 25mila passeggeri
-
Colombia, i dissidenti Farc annunciano il cessate il fuoco per le elezioni
-
Alla Farnesina formazione per supporto psicologico nelle aree di crisi
-
L'Arena di Verona Opera Festival si allunga, 53 serate da giugno a settembre
-
E' ufficiale, Amazon ha aperto la caccia al nuovo James Bond
-
Huller, sento il senso di colpa per il passato nazista della Germania
-
Il compositore Stefano Mainetti fra i tre finalisti dei Camille Awards 2026
-
Pechino, Xi effettuerà una visita negli Usa in autunno
-
MotoGP: ad Acosta le prequalifiche, Bagnaia e Martin dovranno passare la Q1
-
Pascal e Weaver alla prima di The Mandalorian, un film su un bravo padre
-
Balzo dei titoli di Stato, il Btp sale di 16 punti al 3,92%
-
Rolling Stones come negli anni '70, band ringiovanita in video di In the Stars
-
Borsa: l'Europa in calo dopo Wall Street, Milano -2%
-
Anche Libera partecipa al Vasco Live 2026
-
Il livello del mare è regolato anche dalla rotazione della Terra
-
Fortuna FuturClassica, giovani talenti internazionali in scena a Roma
-
Mondiali: i convocati del Giappone, fuori la stella Mitoma per infortunio
-
Da San Siro al Duomo, l'Inter svela il percorso della parata scudetto
Le IA non sanno distinguere tra opinioni personali e i fatti
Studio, limitazione cruciale, rischio disinformazione
I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.
P.Anderson--BTB