-
Trump "n'exclut pas" une guerre avec le Venezuela
-
Coupe de France: sur sa lancée, Lens écarte Feignies-Aulnoye et file en 16e
-
Wall Street termine en hausse, la tech reprend des forces
-
Espagne: une association de défense des consommateurs attaque Google sur la protection des données
-
Le bras de fer judiciaire entre Shein et le gouvernement continue
-
Le FMI débloque 200 millions de dollars pour le Sri Lanka après le cyclone Ditwah
-
Fin du procès de Lafarge pour financement du terrorisme, jugement le 13 avril 2026
-
Taïwan : trois personnes tuées dans des attaques dans le métro de la capitale
-
Après moult atermoiements, l'administration Trump va publier une partie du dossier Epstein
-
Biathlon: au Grand-Bornand, Jacquelin 3e du sprint au milieu de l'armada norvégienne
-
Le Mercosur réuni au Brésil, l'UE vise le 12 janvier pour l'accord
-
Papillomavirus: couverture vaccinale des adolescents en hausse, mais toujours en deçà des objectifs
-
Un journaliste suédo-érythréen détenu en Erythrée depuis 24 ans est en vie, selon la Suède
-
Ukraine: menacé par les frappes russes, un haras contraint d'évacuer des chevaux
-
Les casinos frontaliers en première ligne du conflit Thaïlande-Cambodge
-
Dans un camp palestinien, un terrain de foot menacé par un avis de démolition israélien
-
Brésil: la Cour suprême invalide une loi qui restreint le droit à la terre des indigènes
-
Budget: députés et sénateurs échouent à se mettre d'accord, pas de budget avant la fin de l'année
-
Shein échappe à une suspension et rouvrira progressivement sa place de marché
-
Wall Street ouvre en hausse, évalue les options de la politique monétaire américaine
-
Dossier Epstein: "ça a pris trop longtemps", estiment des militants pro-Trump
-
Norvège: la princesse Mette-Marit va probablement subir une transplantation pulmonaire
-
Gaza: plus de 1.000 personnes décédées en attendant une évacuation médicale depuis juillet 2024, annonce l'OMS
-
Ski: Zabystran surprend Odermatt, Allègre abonné à la 4e place
-
Bangladesh: nouvelles manifestations après la mort d'un leader étudiant assassiné
-
L'AFP veut réformer son système d'expatriation pour faire des économies
-
"Nous sommes des fantômes": à la rencontre de travailleurs de nuit immigrés au Royaume-Uni
-
CAN-2025: décrocher le titre, la seule option pour le Maroc
-
Perrier peut continuer à vendre de "l'eau minérale naturelle"
-
TikTok signe un accord et échappe à l'interdiction aux Etats-Unis
-
Disparition d'uranium au Niger: enquête ouverte à Paris pour vol en bande organisée
-
Guerre en Ukraine : Poutine assure que "la balle est dans le camp" de ses adversaires
-
Ski: Zabystran surprend Odermatt et s'offre le super-G de Val Gardena
-
Foot: fracture de la main gauche pour le gardien du PSG Matvey Safonov (club)
-
Tirs à l'université Brown: Washington suspend le programme de visas dont a bénéficié le suspect
-
Le caviar de béluga, le trésor du lac Kardjali en Bulgarie
-
Ethiopie: dans le conflit qui fait rage en Amhara, les civils "pris entre deux feux"
-
Budget: échec du compromis entre députés et sénateurs, pas de budget avant la fin de l'année
-
Violences sexuelles dans le sport: "un enfant n'invente jamais une agression"
-
Les yakuzas japonais délaissés par les nouveaux gangsters
-
Nouvelle frappe américaine dans le Pacifique, plus de 100 morts depuis septembre
-
En Afghanistan, clap de fin forcé pour un cinéma historique de Kaboul
-
Italie: après le fils aîné, le fils cadet d'Ibrahimovic aussi sous contrat avec l'AC Milan
-
F1: Le bouleversement réglementaire en 2026, étape charnière pour Ferrari
-
Mercosur: fort d'un bref répit, Macron reste prudent pour la suite
-
La veuve du "Commissaire Moulin" demande des comptes au producteur
-
Fin de la grève au Louvre, le musée rouvre normalement
-
Russie: Poutine se félicite de gains territoriaux en Ukraine
-
Mobilisation agricole: les appels à la "trêve de Noël" se multiplient
-
Jour J pour la publication du dossier Epstein par l'administration Trump
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".
Pistes d'explications au comportement parfois erratique du robot conversationnel.
- Plus c'est long, moins c'est bon -
Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.
Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.
"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".
Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.
Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".
Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".
"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.
- Formé sur les forums -
"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.
Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.
Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.
Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.
"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.
"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.
Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".
Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.
- Arroseur arrosé -
En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.
Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.
"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.
En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.
"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.
Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".
Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.
Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".
"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.
"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".
M.Ouellet--BTB