Les progrès rapides de l'intelligence artificielle (IA), tels que le ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour se mettre d'accord sur des lois régissant l'utilisation de la technologie.

Voici les dernières mesures prises par les instances gouvernementales nationales et internationales pour réglementer les outils d'IA :

AUSTRALIE

* Réglementation en matière de planification

L'Australie va obliger les moteurs de recherche à rédiger de nouveaux codes pour empêcher le partage de matériel pédopornographique créé par l'IA et la production de versions "deepfake" de ce même matériel.

BRETAGNE

* Réglementation en matière d'urbanisme

Le 2 novembre, lors du premier sommet mondial sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne, les principaux développeurs d'IA ont décidé de collaborer avec les gouvernements pour tester les nouveaux modèles avant leur mise sur le marché, afin de mieux gérer les risques liés à cette technologie en plein essor.

Plus de 25 pays présents au sommet, dont les États-Unis et la Chine, ainsi que l'Union européenne, ont signé le 1er novembre une "déclaration de Bletchley" afin de collaborer et d'établir une approche commune en matière de surveillance.

Lors du sommet, la Grande-Bretagne a déclaré qu'elle triplerait son financement pour atteindre 300 millions de livres (364 millions de dollars) pour la "ressource de recherche sur l'IA", comprenant deux superordinateurs qui soutiendront la recherche sur la sécurisation des modèles d'IA avancés, une semaine après que le Premier ministre Rishi Sunak ait déclaré que la Grande-Bretagne créerait le premier institut de sécurité de l'IA au monde.

L'autorité britannique de surveillance des données a déclaré en octobre qu'elle avait émis un avis préliminaire d'exécution à l'encontre de Snapchat, qui appartient à Snap Inc., pour n'avoir pas correctement évalué les risques pour la vie privée des utilisateurs, en particulier des enfants, de son chatbot d'IA générative.

CHINE

* Mise en œuvre de réglementations temporaires

Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne le 1er novembre que Pékin était prêt à renforcer la collaboration en matière de sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

En octobre, la Chine a publié des propositions d'exigences de sécurité pour les entreprises proposant des services alimentés par l'IA générative, y compris une liste noire de sources qui ne peuvent pas être utilisées pour former des modèles d'IA.

Le pays a publié une série de mesures temporaires en août, exigeant des fournisseurs de services qu'ils soumettent des évaluations de sécurité et qu'ils reçoivent une autorisation avant de commercialiser des produits d'IA à grande échelle.

UNION EUROPÉENNE

* Réglementation en matière de planification

La France, l'Allemagne et l'Italie sont parvenues à un accord sur la manière dont l'IA devrait être réglementée, selon un document commun consulté par Reuters le 18 novembre. Le document explique que les développeurs de modèles de base devraient définir des cartes de modèle, qui sont utilisées pour fournir des informations sur un modèle d'apprentissage automatique.

Les législateurs européens se sont mis d'accord le 24 octobre sur une partie essentielle des nouvelles règles en matière d'IA, décrivant les types de systèmes qui seront désignés comme étant "à haut risque", se rapprochant ainsi d'un accord plus large sur la loi historique sur l'IA qui est attendue en décembre, selon cinq personnes familières avec le sujet.

FRANCE

* Enquête sur d'éventuelles violations

L'organisme français de protection de la vie privée a déclaré en avril qu'il enquêtait sur des plaintes concernant ChatGPT.

G7

* Recherche d'informations sur les réglementations

Le 30 octobre, le Groupe des Sept (G7) a adopté un code de conduite en 11 points à l'intention des entreprises qui développent des systèmes d'IA avancés. Ce code "vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier".

ITALIE

* Enquête sur d'éventuelles violations

L'autorité italienne chargée de la protection des données prévoit d'examiner les plateformes d'IA et d'engager des experts dans ce domaine, a déclaré un haut fonctionnaire en mai. ChatGPT a été temporairement interdit dans le pays en mars, mais il est redevenu accessible en avril.

JAPON

* Enquête sur d'éventuelles violations

Le Japon prévoit d'introduire d'ici à la fin de l'année 2023 des réglementations qui seront probablement plus proches de l'attitude des États-Unis que des réglementations strictes prévues par l'UE, a déclaré en juillet un fonctionnaire proche des délibérations.

L'organisme de surveillance de la vie privée du pays a averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes.

POLOGNE

* Enquête sur d'éventuelles violations

L'Office polonais de protection des données personnelles a déclaré en septembre qu'il enquêtait sur OpenAI à la suite d'une plainte selon laquelle ChatGPT enfreint les lois européennes sur la protection des données.

ESPAGNE

* Enquête sur d'éventuelles violations

L'agence espagnole de protection des données a lancé en avril une enquête préliminaire sur d'éventuelles violations de données par ChatGPT.

NATIONS UNIES

* Réglementation en matière de planification

Le 26 octobre, le secrétaire général de l'ONU, António Guterres, a annoncé la création d'un organe consultatif de 39 membres, composé de dirigeants d'entreprises technologiques, de fonctionnaires et d'universitaires, chargé d'examiner les questions relatives à la gouvernance internationale de l'IA.

Le Conseil de sécurité de l'ONU a tenu sa première discussion officielle sur l'IA en juillet, abordant les applications militaires et non militaires de l'IA qui "pourraient avoir des conséquences très graves pour la paix et la sécurité mondiales", a déclaré António Guterres à l'époque.

ÉTATS-UNIS

* Recherche d'informations sur les réglementations

Les États-Unis vont lancer un institut de sécurité de l'IA pour évaluer les risques connus et émergents des modèles d'IA dits "pionniers", a déclaré la secrétaire au commerce Gina Raimondo le 1er novembre lors du sommet sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne.

Le président Joe Biden a publié un nouveau décret le 30 octobre pour exiger des développeurs de systèmes d'IA qui présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis qu'ils partagent les résultats des tests de sécurité avec le gouvernement.

En septembre, le Congrès américain a organisé des auditions sur l'IA et un forum sur l'IA auquel ont participé Mark Zuckerberg, PDG de Meta, et Elon Musk, PDG de Tesla. Plus de 60 sénateurs ont participé aux discussions, au cours desquelles Elon Musk a appelé à un "arbitre" américain pour l'IA.

En juillet, la Commission fédérale du commerce des États-Unis a ouvert une enquête sur OpenAI, affirmant qu'elle avait enfreint les lois sur la protection des consommateurs. (Compilé par Alessandro Parodi et Amir Orusov à Gdansk ; Rédaction par Milla Nissi et Emelia Sithole-Matarise)