-
Cremlino, strategia Usa sull'Europa è in linea con Mosca
-
Sci: Cdm snowboard, in Cina Felicetti vince e Bormolini terzo
-
Media, si cerca l'ultimo corpo ostaggio a Zeitoun a Gaza City
-
Kiev, 'blackout e niente riscaldamento a Kremenchuk dopo raid'
-
Varsavia contro Musk, 'vattene su Marte'
-
Tokyo, governo rivede scenario possibile terremoto 7.3
-
++ Almeno 23 morti in un incendio a un night club in India ++
-
Kiev, 'interruzioni di corrente fino a 16 ore al giorno'
-
Hegseth, 'Usa non cercano di cambiare lo status quo per Taiwan'
-
Calcio: Messi e l'Inter Miami campioni della MLS
-
Centinaia di persone protestano contro il governo in Tunisia
-
Macron sente Zelensky, 'Europa pilastro di una soluzione giusta'
-
Merz in Israele, 'nostro sostegno è un principio fondamentale'
-
Il Verona batte l'Atalanta e trova la prima vittoria
-
Sci: cdm; Robinson vince gigante Mont Tremblant, Goggia 8/a
-
Calcio: Inter; Chivu, gara di qualità e tre punti importanti
-
Como: Fabregas, ko pesante che ci farà crescere
-
Calcio: Inter; Lautaro, abbiamo dimostrato la nostra forza
-
L'Inter schianta il Como, a San Siro finisce 4-0
-
Calcio: Fiorentina; ds Goretti, 'Vanoli è confermato'
-
F1: Leclerc 'non facciamoci illusioni, ma spero in ultimo podio'
-
Calcio: Grosso, 'Mi sono scusato con arbitro, ci siamo chiariti'
-
Playing God, il corto animato da Bologna agli Oscar
-
La Fiorentina cade anche Sassuolo, emiliani vincono 3-1
-
Calcio: Spalletti 'Napoli può dire molto sul campionato Juve'
-
Al via la 30/a edizione di Artigiano in Fiera con 2.800 imprese
-
Juve: Spalletti 'formazione in mente, La so, ma a volte cambio'
-
Fiom, Hydro chiude a Belluno ma fa profitti miliardari
-
F1: Verstappen in pole ad Abu Dhabi, secondo Norris
-
F1: Hamilton ancora eliminato in Q1 'sento solo tanta rabbia'
-
Morto Giacobbe, il dolore sui social. I funerali martedì
-
Applausi e risate per il Barbiere di Siviglia alle Muse
-
Mondiali: De Rossi, siamo più forti di come ci dipingono
-
Torna Edoardo Vianello con Lp natalizio 'Babbo Vianello'
-
Torino: Baroni, 'lavoriamo per risolvere i blackout'
-
Scala, nel parco Reale Segre e la sottosegretaria Usa Rogers
-
Autostrada Asti-Cuneo, apertura al traffico il 30 dicembre
-
L'allarme degli esercenti, con Netflix-Warner a rischio le sale
-
Gasperini 'se l'attacco cresce, Roma margini di miglioramento'
-
Gasperini 'la Roma ha la rosa per giocare tre competizioni'
-
Musk, 'l'Ue va abolita, la sovranità torni ai singoli Stati'
-
++ Mef, le entrate dei primi 10 mesi a 471,6 miliardi (+2%) ++
-
Slittino: a Loch la prima gara, il tedesco vince a Winterberg
-
Von Trotta, 'speravo che l'umanità non ripetesse certi orrori'
-
I 50 anni di Amici Miei, l'omaggio della Camera a Tognazzi
-
Giochi, profumi e cartoleria sul podio dei regali di Natale
-
F1: a Russel le ultime libere di Abu Dhabi, incidente Hamilton
-
Milano Cortina: la fiamma viaggia per Roma, Berrettini tedoforo
-
Dieci parti in 26 ore, giorno da record a Legnago
-
Sci nordico: Klaebo vittoria n.101 in coppa, Pellegrino 16/o
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
R.Adler--BTB