Le principal démocrate du Sénat américain invite les leaders technologiques américains, notamment Elon Musk, PDG de Tesla, Mark Zuckerberg, PDG de Meta Platforms, et Sundar Pichai, PDG d'Alphabet, à se rendre au Capitole mercredi pour un forum à huis clos sur la manière dont le Congrès devrait établir des garde-fous en matière d'intelligence artificielle.

"Pour le Congrès, légiférer sur l'intelligence artificielle revient à s'engager dans l'un des sujets les plus complexes et les plus importants auxquels le Congrès ait jamais été confronté", a déclaré mardi Chuck Schumer, chef de la majorité sénatoriale.

Les législateurs s'interrogent sur la manière d'atténuer les dangers de cette technologie émergente, qui a connu un boom des investissements et de la popularité auprès des consommateurs après la publication du ChatGPT d'OpenAI.

Les législateurs veulent des garanties contre les "deepfakes" potentiellement dangereux, l'ingérence dans les élections et les attaques contre les infrastructures critiques.

Parmi les autres participants attendus figurent Sam Altman, PDG d'OpenAI, Jensen Huang, PDG de Nvidia, Satya Nadella, PDG de Microsoft, Arvind Krishna, PDG d'IBM, Bill Gates, ancien PDG de Microsoft, Liz Shuler, présidente de l'AFL-CIO, et les sénateurs Mike Rounds, Martin Heinrich et Todd Young.

M. Schumer, qui a parlé de l'IA avec M. Musk en avril, souhaite que les participants discutent "des raisons pour lesquelles le Congrès doit agir, des questions à poser et de la manière de construire un consensus pour une innovation sûre". Les sessions commencent à 10 heures et durent jusqu'à 17 heures.

En mars, M. Musk et un groupe d'experts et de dirigeants de l'IA ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 d'OpenAI, en invoquant les risques potentiels pour la société.

Cette semaine, le Congrès organise trois auditions distinctes sur l'IA. Le président de Microsoft, Brad Smith, a déclaré mardi à la sous-commission judiciaire du Sénat que le Congrès devrait "exiger des freins de sécurité pour l'IA qui contrôle ou gère des infrastructures critiques".

M. Smith a comparé les mesures de protection de l'IA à l'obligation d'installer des disjoncteurs dans les bâtiments, d'équiper les bus scolaires de freins d'urgence et les avions de systèmes d'évitement des collisions.

Les régulateurs du monde entier se sont efforcés d'élaborer des règles régissant l'utilisation de l'IA générative, qui peut créer du texte et générer des images dont l'origine artificielle est pratiquement indétectable.

Adobe, IBM, Nvidia et cinq autres entreprises ont déclaré mardi avoir signé les engagements volontaires du président Joe Biden en matière d'IA, qui prévoient des mesures telles que l'apposition d'un filigrane sur les contenus générés par l'IA.

Les engagements annoncés en juillet visaient à garantir que la puissance de l'IA ne soit pas utilisée à des fins destructrices. Google, OpenAI et Microsoft ont signé ces engagements en juillet. La Maison-Blanche travaille également à l'élaboration d'un décret sur l'IA. (Reportage de David Shepardson ; rédaction de Lincoln Feast.)