La rupture qui a coûté à Sam Altman, jeune prodige de l'intelligence artificielle, son poste de PDG de l'OpenAI reflète une divergence d'opinion fondamentale sur la sécurité, au sens large, entre deux camps qui développent le logiciel qui modifie le monde et qui réfléchissent à son impact sociétal.

D'un côté, il y a ceux qui, comme M. Altman, considèrent que le développement rapide et, surtout, le déploiement public de l'IA sont essentiels pour tester et perfectionner la technologie. De l'autre côté, il y a ceux qui estiment que la voie la plus sûre consiste à développer et à tester l'IA en laboratoire, afin de s'assurer qu'elle est, pour ainsi dire, propre à la consommation humaine.

M. Altman, 38 ans, a été licencié vendredi de l'entreprise qui a créé le populaire chatbot ChatGPT. Pour beaucoup, il était considéré comme le visage humain de l'IA générative.

Certains craignent que le logiciel hyperintelligent ne devienne incontrôlable et ne conduise à une catastrophe, ce qui préoccupe les travailleurs du secteur technologique adeptes d'un mouvement social appelé "altruisme efficace", qui estiment que les progrès de l'IA devraient profiter à l'humanité. Ilya Sutskever, directeur scientifique d'OpenAI et membre du conseil d'administration qui a approuvé l'éviction de M. Altman, fait partie de ceux qui partagent ces craintes.

Une division similaire est apparue entre les développeurs de voitures autonomes - également contrôlées par l'IA - qui affirment qu'elles doivent être lâchées dans des rues urbaines denses pour comprendre pleinement les facultés et les faiblesses des véhicules, tandis que d'autres appellent à la retenue, craignant que la technologie ne présente des risques inconnus.

Ces inquiétudes concernant l'IA générative ont atteint leur paroxysme avec l'éviction surprise de M. Altman, qui était également cofondateur de l'OpenAI. L'IA générative est le terme utilisé pour désigner les logiciels capables de produire un contenu cohérent, tel que des essais, du code informatique et des images semblables à des photos, en réponse à des demandes simples. La popularité du ChatGPT d'OpenAI au cours de l'année écoulée a accéléré le débat sur la meilleure façon de réglementer et de développer le logiciel.

La question est de savoir s'il s'agit d'un produit comme les autres, comme les médias sociaux ou les crypto-monnaies, ou s'il s'agit d'une technologie capable de surpasser les humains et de devenir incontrôlable, a déclaré Connor Leahy, PDG de ConjectureAI et défenseur de la sécurité. L'avenir appartient-il alors aux machines ? M. Sutskever aurait estimé que M. Altman mettait trop rapidement le logiciel OpenAI entre les mains des utilisateurs, ce qui risquait de compromettre la sécurité.

"Nous n'avons pas de solution pour diriger ou contrôler une IA potentiellement superintelligente et pour l'empêcher de se comporter de manière déréglée", ont-ils écrit, lui et un adjoint, dans un billet de blog datant de juillet. "Les humains ne seront pas en mesure de superviser de manière fiable des systèmes d'IA beaucoup plus intelligents que nous.

Le fait qu'OpenAI ait annoncé une série de nouveaux produits commerciaux lors de son événement destiné aux développeurs au début du mois, notamment une version de son logiciel ChatGPT-4 et des agents fonctionnant comme des assistants virtuels, a suscité une inquiétude particulière.

Sutskever n'a pas répondu à une demande de commentaire.

Le sort d'OpenAI est considéré par de nombreux technologues comme crucial pour le développement de l'IA. Au cours du week-end, les discussions visant à réinstaller M. Altman ont tourné court, anéantissant les espoirs des acolytes de l'ancien PDG.

La publication de ChatGPT en novembre dernier a suscité une frénésie d'investissements dans les entreprises d'IA, dont 10 milliards de dollars de Microsoft dans OpenAI et des milliards d'autres pour d'autres startups, notamment d'Alphabet et d'Amazon.com.

Cela peut expliquer en partie l'explosion des nouveaux produits d'IA, des entreprises comme Anthropic et ScaleAI s'efforçant de montrer aux investisseurs qu'elles ont progressé. Les régulateurs, quant à eux, tentent de suivre le rythme du développement de l'IA, notamment grâce aux lignes directrices de l'administration Biden et à la pression exercée par certains pays en faveur d'une autorégulation obligatoire, alors que l'Union européenne s'efforce de mettre en place une vaste surveillance des logiciels.

Si la plupart des utilisateurs ont recours à des logiciels d'IA générative, tels que ChatGPT, pour compléter leur travail, par exemple pour rédiger des résumés rapides de longs documents, les observateurs se méfient des versions qui pourraient voir le jour, connues sous le nom d'intelligence générale artificielle (AGI), et qui pourraient effectuer des tâches de plus en plus compliquées sans aucune sollicitation. Cela a suscité des inquiétudes quant à la possibilité que le logiciel puisse, à lui seul, prendre le contrôle de systèmes de défense, créer de la propagande politique ou produire des armes.

L'OpenAI a été fondée en tant qu'association à but non lucratif il y a huit ans, en partie pour s'assurer que ses produits n'étaient pas motivés par la recherche du profit, ce qui pourrait l'entraîner sur une pente glissante vers une AGI dangereuse, ce que la charte de l'entreprise désigne comme toute chose menaçant de nuire à l'humanité ou de concentrer indûment le pouvoir. Mais depuis lors, M. Altman a contribué à la création d'une entité à but lucratif au sein de l'entreprise dans le but de collecter des fonds et d'atteindre d'autres objectifs.

Dimanche, en fin de journée, OpenAI a nommé Emmett Shear, l'ancien directeur de la plateforme de streaming Twitch, au poste de PDG par intérim. En septembre, il a plaidé sur les réseaux sociaux pour un "ralentissement" du développement de l'IA. "Si nous sommes actuellement à une vitesse de 10, une pause équivaut à une réduction à 0. Je pense que nous devrions plutôt viser une vitesse de 1 à 2", a-t-il écrit.

Les raisons précises de l'éviction de M. Altman n'étaient pas encore claires lundi. Mais on peut conclure sans risque de se tromper que l'OpenAI est confrontée à des défis de taille pour l'avenir.