-
Calcio: Inghilterra, l'Arsenal batte il Chelsea e va in finale di Coppa di Lega
-
Il Milan vince 3-0 a Bologna e accorcia sull'Inter
-
Venezuela, studenti in piazza per l'amnistia e la libertà dei prigionieri politici
-
La figlia di Raul Castro, 'con l'imperialismo niente negoziati'
-
Ciclismo: Europei pista, bronzo di Favero nell'inseguimento individuale
-
Cucinelli, 'in Italia i migliori manifatturieri, ma gli operai vanno pagati di più'
-
Al Arabiya, Saif Gheddafi ucciso durante scontri tra milizie a Zintan
-
Media libici, morto Saif al-Islam Gheddafi, uno dei figli del rais
-
Giorno memoria rom e sinti, emoziona concerto Spinelli alla Carnegie Hall
-
Un mistero medico di 12mila anni fa risolto grazie al Dna antico
-
F1: Daily Mail, Hamilton si separa dal suo manager Hynes
-
Ondata di freddo a Cuba, raggiunti gli zero gradi
-
Pieraccioni, '30 anni da Il Ciclone, mi sembra frazione di secondo'
-
Agenzia entrate, adempimento collaborativo apre alle piccole e medie imprese
-
Io+Te, Paolillo e Pantano in una storia d'amore intensa e contemporanea
-
Scoperte le onde cerebrali che determinano la percezione del sé corporeo
-
Cinema, #siamoaititolidicoda aderisce all'Usb
-
Sanremo dalla A alla Z, ci sono anche Totò e il Califfo
-
Borsa: Milano chiude positiva con l'Europa debole, scivola Nexi
-
Il prezzo del gas chiude in calo a 32,86 euro al megawattora
-
Lo spread tra Btp e Bund chiude in calo a 60 punti
-
Cam Sugar amplia il suo catalogo con l'acquisizione di Cecchi Gori Music
-
Inail, nel 2025 aumentano infortuni studenti a scuola, 8 i morti
-
F1: la Williams svela online la livrea della monoposto 2026
-
eBay sfida TikTok e lancia in Italia lo shopping in tempo reale
-
Le cellule del naso uniscono le forze contro il virus del raffreddore
-
Milano Cortina:'non sono competitivo', il norvegese Kilde rinuncia ai Giochi
-
E' caro-Fido, 149 euro l'aumento medio per mantenere cani e gatti
-
Mandelson si dimette da lord per lo scandalo Epstein
-
Robbie Williams cerca di chiamare i fan anni '90 ma il numero non funziona
-
Rob, dopo X Factor il nuovo singolo La mia storia
-
Ha-Chan, Shake Your Booty!, ballare con il lutto e il desiderio
-
Kings League annuncia un round di investimento da 63 milioni di dollari
-
Francesco Renga, in autunno in tour nei teatri
-
Agens, Fand e Fish insieme per abbattere le barriere del trasporto pubblico
-
Luna, Rinviato a marzo il lancio di Artemis II con 4 astronauti
-
LDA e Aka 7even, il 6 marzo il primo album insieme Poesie clandestine
-
Presentato al Tevere Remo il libro 'Diritto dello sport'
-
Arera, a gennaio +10,5% in bolletta del gas per i vulnerabili
-
Macron, 'si lavora alla ripresa del dialogo con Putin'
-
Alis, dal 10 al 13 marzo alla fiera di Verona torna LetExpo
-
Jovanotti nelle stanze del Quirinale dopo la nomina a commendatore
-
PayPal nomina un nuovo Ceo, risultati trimestre deludono
-
Metheny, Miller, Krall e Bollani nell'estate jazz di Musica per Roma
-
Serie B: 10 giocatori squalificati per un turno
-
Riccardo Muti dirige Macbeth al Regio di Torino
-
Musk unisce SpaceX e xAI, nasce colosso da 1.250 miliardi
-
Le immagini amatoriali di Cortina 1956 sulla piattaforma Memoryscapes
-
Filming Italy 2026 tra Nero, Binoche, Allevi e Clara
-
Deutsche Borse si accorda con Bitpanda per trading su cripto
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
Y.Bouchard--BTB