-
Europei nuoto 25 m, Ceccon d'oro nei 100 dorso
-
Mondiali: Trump 'da bambino vidi Pelè giocare, uno dei migliori'
-
Mondiali: Trump riceve il premio Fifa per la pace da Infantino
-
Premiato con 1 milione il progetto europeo su nuova astronomia
-
Mondiali:Infantino 'evento unico, come 104 Superbowl in un mese'
-
Borsa: Milano chiude fiacca, giù Mediobanca e Mps
-
Il prezzo del gas chiude in rialzo a 27,27 euro
-
Fotovoltaico al posto dell'amianto su 200 tetti industriali
-
Mondiali: Trump 'il calcio sport grandioso, arriva negli Usa'
-
F1: fratelli Leclerc in pista, Charles 'lo sognavamo da bambini'
-
Alessandro Siani debutta con il nuovo show Fake News
-
Mondiali: Trump arrivato al Kennedy Center per il sorteggio
-
Vanoli 'inizia un mese importante, sta a noi trascinare tifosi'
-
Molaro, velo da sposa con 1000 proiettili contro la guerra
-
Monitorare gli alimenti con sensori da smaltire nell'umido
-
Milano-Cortina, Ralph Lauren disegna le divise del team Usa
-
Borsa: l'Europa stabile dopo l'inflazione Usa
-
Weaver, 'in Avatar molte emergenze del nostro mondo'
-
I sindacati, 'massiccia adesione a sciopero nazionale Ikea'
-
Tarantino spara a zero su Paul Dano e Owen Wilson
-
Borsa: l'Europa positiva dopo Wall Street, Milano +0,2%
-
Un'IA al servizio della scienza, può aggregare dati da più fonti
-
Una Battaglia Dietro l'Altra e Marty Supreme nella top 10 di Afi
-
La Grazia di Sorrentino esce negli Usa, applausi dalla critica
-
Its Academy consacra 16 giovani artigiani del costume
-
Tornatore, 'il biopic su Cucinelli? Impossibile dirgli di no'
-
Afraa Al-Noaimi dal Qatar alla Prima della Scala
-
'Usa, l'Europa prenda il controllo della Nato entro 2027'
-
Fedriga, iniziati colloqui tra Fincantieri e Comune Monfalcone
-
Antartide, al via la missione scientifica della nave Laura Bassi
-
Maculopatia senile, positivi i primi dati sulla terapia genica
-
Niente rc auto per auto storiche, basta polizza 'statica'
-
Grigory Sokolov torna al Lingotto con Beethoven e Brahms
-
Borsa: l'Europa in attesa dei dati Usa, spread a 69,7 punti
-
Celentano, primo remix ufficiale brano L'Emozione Non Ha Voce
-
Mal di testa cronico, nuovo farmaco dimezza gli attacchi
-
Influenza per quasi 600mila in 7 giorni, in tutto 3,3 milioni
-
L'inquinamento da plastica aggravato dal riscaldamento globale
-
Netflix vince su Paramount, trattative esclusive per Warner Bros
-
Ciak per 'Ritorno a Buenos Aires' nuovo film di Marco Bechis
-
Milano Cortina ora è anche una canzone con Il Pagante
-
Amiloidosi cardiaca, nasce il primo registro nazionale
-
Putin omaggia Gandhi,'sosteneva principi che la Russia difende'
-
Laghat, storia vera di cavalli, redenzione e coming of age
-
Scelti i 4 progetti finalisti Biennale College - Cinema 2025-26
-
Giorgia in tour a Bologna tra grandi successi e nuovo album
-
Milano Cortina, breve colloquio Coventry-Meloni
-
Pnrr: C.Conti, ok 32 target primo semestre, accelera spesa
-
Sulla Rai la leggenda Pininfarina, la storia di un mito
-
Lady Macbeth conquista gli under 30 alla Scala
Le IA non sanno distinguere tra opinioni personali e i fatti
Studio, limitazione cruciale, rischio disinformazione
I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.
P.Anderson--BTB