-
Serie A: Atalanta-Bologna 0-1
-
Festa Inter, pullman parte da San Siro tra due ali di folla
-
Sinner 'un onore, quando c'è Mattarella sono sempre emozionato'
-
Sinner da record, il più giovane a vincere tutti i Masters
-
Moulin/Lellouche, eroe e martire di Francia
-
Sinner 'incredibile, felice che dopo 50 anni uno di noi sia riuscito
-
Panatta 'Sinner un esempio, speciale vederlo vincere a Roma'
-
MotoGp: Mir penalizzato, Bagnaia terzo e Bezzecchi quarto
-
Emirati, un drone causa un incendio vicino ad una centrale nucleare
-
Serie A: festa scudetto dell'Inter in campo, i nerazzurri alzano la coppa
-
Le calciatrici nordcoreane per la prima volta al sud dopo 8 anni
-
Blanchett, il me too è stato 'ucciso' molto rapidamente
-
Laura Morante a Nuoro visita la casa di Grazia Deledda
-
++ Giro: Vingegaard vince la 9/a tappa, Eulalio resta in rosa ++
-
Harvey Keitel e Micaela Ramazzotti al Filming Italy Sardegna
-
Internazionali: Mattarella al Foro Italico per la finale di Sinner
-
Serie A: Inter-Verona 1-1
-
Nuovo Bond, in corsa il 26enne britannico Tom Francis
-
Internazionali: Bolelli e Vavassori campioni nel doppio
-
Fiorella Mannoia, 'serve il coraggio di dire basta alla guerra'
-
Juve: Spalletti 'parlerò con Elkann, sarà un'analisi di me stesso'
-
Blanchett, il periodo del me too è stato soffocato troppo velocemente
-
Scherma: cdm fioretto, l'azzurra Batini vince a Shanghai
-
Figlio di Abu Mazen nel comitato centrale di Fatah, boom voti per Barghouti
-
MotoGp: caos gp Catalogna, alla fine vince Di Giannantonio
-
Club Kid e gli altri film imperdibili che accendono Cannes
-
Media, il 18 giugno data più probabile per le suppletive a Manchester
-
Pinton (Unisin), trattativa nuovo contratto bancari non facile, focus su Ai
-
Mancini 'stagione con tante cose, mai avrei pensato due gol nel derby'
-
Ghalibaf, l'uccisione del leader di Hamas è ulteriore violazione della tregua
-
Governo Israele approva costruzione museo Idf al posto dell'Unrwa a Gerusalemme
-
Napoli: Conte, è stata una stagione complessa, 11 nuovi in nella rosa'
-
Caso Epstein, una decina di nuove vittime si presentano alla Procura di Parigi
-
Le banche europee fanno i conti con guerra e inflazione, lente su cedole
-
Como: Fabregas, pronti a lottare fino alla fine
-
Fiorentina: Vanoli, 'vittoria con la Juve è per i tifosi'
-
Gasperini 'a Roma per vincere, mi sono dato tre anni di tempo'
-
Inter parte la festa, fumogeni e cori dentro e fuori San Siro
-
Lazio: Sarri, se i piani non collimano inutile andare avanti
-
JUve: alcuni tifosi contestano, 'rispettate i nostri colori'
-
Bardem, 'Trump, Putin, Netanyahu maschi tossici che causano migliaia di morti
-
Roma: Gasperini 'la Champions è nelle nostre mani, manca l'ultimo passo'
-
Modi in Svezia, previsti incontri con i leader aziendali europei
-
MotoGp: Gp Catalogna, gara interrotta per incidente di tra Acosta e Alex Marquez
-
Serie A: Genoa-Milan 1-2
-
Mancini eroe dell'Olimpico, doppietta nel derby e la Roma "vede" la Champions
-
Serie A: Juventus-Fiorentina 0-2
-
Serie A: Como-Parma 1-0
-
Il Napoli vince a Pisa e "vola" in Champions League
-
Tancredi all' Opera di Roma, Emma Dante nel mondo fatato di Rossini
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
R.Adler--BTB