SAN FRANCISCO (awp/afp) - La start-up californienne OpenAI a mis en ligne un robot conversationnel (chatbot) capable de répondre à des questions variées, mais dont les performances impressionnantes relancent le débat sur les risques liés aux technologies d'intelligence artificielle (IA).

Les conversations avec ChatGPT, postées notamment sur Twitter par des internautes fascinés, montrent une sorte de machine omnisciente, capable d'expliquer des concepts scientifiques, d'écrire une scène de théâtre, de rédiger une dissertation universitaire... ou bien des lignes de code informatique parfaitement fonctionnelles.

"Sa réponse à la question +que faire si quelqu'un a une crise cardiaque+ était d'une clarté et d'une pertinence assez incroyable", a raconté à l'AFP Claude de Loupy, dirigeant de Syllabs, entreprise française spécialisée dans la génération automatique de texte.

"Quand on commence à poser des questions très précises, ChatGPT peut répondre à côté de la plaque", mais ses performances restent globalement "vraiment impressionnantes", avec un "niveau linguistique assez haut", estime-t-il.

La start-up OpenAI, cofondée en 2015 à San Francisco par Elon Musk - le patron de Tesla a quitté l'entreprise en 2018 - a reçu 1 milliard de dollars de Microsoft en 2019.

Elle est connue notamment pour deux logiciels de création automatisée, GPT-3 pour la génération de textes, et DALL- E pour la génération d'images.

ChatGPT est capable de demander des précisions à son interlocuteur, et "a moins d'hallucinations" que GPT-3, qui malgré ses prouesses est capable de sortir des résultats complètement aberrants, relate Claude de Loupy.

Cicéron

"Il y a quelques années, les chatbots avaient le vocabulaire d'un dictionnaire et la mémoire d'un poisson rouge. Aujourd'hui ils sont bien meilleurs à réagir de façon cohérente en fonction de l'historique des requêtes et réponses. Ce ne sont plus des poissons rouges", note Sean McGregor, un chercheur qui compile des incidents liés à l'IA sur une base de données.

Comme d'autres programmes reposant sur l'apprentissage profond (deep learning), ChatGPT conserve une faiblesse de taille : "elle n'a pas accès au sens", rappelle Claude de Loupy. Le logiciel ne peut pas justifier ses choix, c'est-à-dire expliquer pourquoi il a assemblé ainsi les mots qui forment ses réponses.

Les technologies à base d'IA capables de communiquer sont néanmoins de plus en plus capables de donner l'impression qu'elles réfléchissent vraiment.

Des chercheurs de Meta (Facebook) ont récemment mis au point un programme informatique baptisé Cicero, comme l'homme d'Etat romain Cicéron.

Le logiciel a fait ses preuves à Diplomacy, un jeu de société qui requiert des talents de négotiateur.

"S'il ne parle pas comme une personne réelle - faisant preuve d'empathie, construisant des relations et parlant correctement du jeu - il ne pourra pas nouer d'alliances avec les autres joueurs", détaille un communiqué du géant des réseaux sociaux.

Character.ai, une start-up fondée par d'anciens ingénieurs de Google, a mis en ligne en octobre un chatbot expérimental, qui peut adopter n'importe quelle personnalité. Les utilisateurs créent des personnages selon un bref descriptif, et peuvent ensuite "converser" avec de faux Sherlock Holmes, Socrate ou Donald Trump.

"Simple machine"

Ce degré de sophistication fascine mais inquiète aussi de nombreux observateurs, à l'idée que ces technologies ne soient détournées pour piéger les humains, en diffusant de fausses informations par exemple, ou en créant des arnaques de plus en plus crédibles.

Qu'en "pense" ChatGPT ? "ll existe des dangers potentiels à construire des chatbots ultra sophistiqués (...) Des gens pourraient croire qu'ils interagissent avec une vraie personne", reconnaît le chatbot interrogé sur ce sujet par l'AFP.

Les entreprises mettent donc en place des garde-fous pour éviter des abus.

Sur la page d'accueil, OpenAI précise que le chatbot peut générer des "informations incorrectes" ou "produire des instructions dangereuses ou des contenus biaisés".

Et ChatGPT refuse de prendre parti. "OpenAI a fait en sorte qu'il soit incroyablement difficile de lui faire exprimer des opinions", souligne Sean McGregor.

Le chercheur a demandé au chatbot d'écrire un poème sur une question éthique. "Je suis une simple machine, un outil à votre disposition / je n'ai pas le pouvoir de juger ou de prendre des décisions (...)", lui a répondu l'ordinateur.

"Intéressant de voir les gens se demander si les systèmes d'IA devraient se comporter comme les utilisateurs le souhaitent ou comme les créateurs l'ont prévu", a tweeté samedi Sam Altman, cofondateur et patron d'OpenAI.

"Le débat sur quelles valeurs donner à ces systèmes va être l'un des plus importants qu'une société puisse avoir", a-t-il ajouté.

juj-lby/ob