Les progrès rapides de l'intelligence artificielle (IA), tels que le ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour se mettre d'accord sur des lois régissant l'utilisation de la technologie.

Voici les dernières mesures prises par les instances gouvernementales nationales et internationales pour réglementer les outils d'IA :

AUSTRALIE

* Réglementation en matière de planification

L'Australie va demander aux moteurs de recherche de rédiger de nouveaux codes pour empêcher le partage de matériel pédopornographique créé par l'IA et la production de versions falsifiées de ce même matériel, a déclaré le 8 septembre l'autorité de régulation de l'internet du pays.

BRETAGNE

* Réglementation en matière d'urbanisme

L'autorité britannique de la concurrence et des marchés (CMA) a énoncé sept principes le 18 septembre afin de responsabiliser les développeurs, d'empêcher les grandes entreprises technologiques d'enfermer la technologie dans leurs plates-formes et de mettre un terme aux pratiques anticoncurrentielles telles que la vente groupée.

Les principes proposés, qui interviennent six semaines avant que la Grande-Bretagne n'accueille un sommet mondial sur la sécurité de l'IA, étayeront son approche de l'IA lorsqu'elle assumera, dans les mois à venir, de nouveaux pouvoirs pour superviser les marchés numériques.

CHINE

* Mise en œuvre de réglementations temporaires

La Chine a publié une série de mesures temporaires entrant en vigueur le 15 août, exigeant des fournisseurs de services qu'ils soumettent des évaluations de sécurité et reçoivent une autorisation avant de lancer des produits d'IA sur le marché de masse.

Suite à l'approbation du gouvernement, quatre entreprises technologiques chinoises, dont Baidu et SenseTime Group, ont lancé leurs chatbots d'IA au public le 31 août.

UNION EUROPÉENNE

* Réglementation en matière de planification

Le législateur européen Brando Benifei, qui dirige les négociations sur la loi sur l'intelligence artificielle, a exhorté le 21 septembre les pays membres à faire des compromis dans des domaines clés afin de parvenir à un accord d'ici la fin de l'année. Les législateurs de l'UE ont accepté en juin les changements apportés à un projet de loi et s'efforcent à présent de régler les détails avec les pays de l'UE avant que le projet de règles ne devienne une législation.

Le 13 septembre, la présidente de la Commission européenne, Ursula von der Leyen, a demandé la création d'un groupe d'experts mondial chargé d'évaluer les risques et les avantages de l'IA, à l'instar du groupe d'experts mondial du GIEC, qui informe les décideurs politiques sur le climat.

FRANCE

* Enquête sur d'éventuelles infractions

La Commission nationale de l'informatique et des libertés (CNIL) a déclaré en avril qu'elle enquêtait sur des plaintes concernant ChatGPT, après que le chatbot a été temporairement interdit en Italie.

G7

* Le G7 cherche à obtenir des informations sur les réglementations

Les dirigeants du G7 réunis à Hiroshima, au Japon, ont reconnu en mai la nécessité d'une gouvernance de l'IA et des technologies immersives et ont décidé de demander aux ministres de discuter de la technologie dans le cadre du "processus d'Hiroshima sur l'IA" et de rendre compte des résultats d'ici à la fin de l'année 2023.

ITALIE

* Enquête sur d'éventuelles violations

L'autorité italienne de protection des données prévoit d'examiner les plateformes d'IA et d'engager des experts dans ce domaine, a déclaré un haut fonctionnaire en mai. ChatGPT est devenu accessible aux utilisateurs italiens en avril, après avoir été temporairement interdit par l'autorité nationale de protection des données en mars.

JAPON

* Enquête sur d'éventuelles violations

Le Japon prévoit d'introduire d'ici à la fin de l'année 2023 des réglementations qui seront probablement plus proches de l'attitude des États-Unis que des réglementations strictes prévues par l'UE, a déclaré en juillet un fonctionnaire proche des délibérations.

L'organisme de surveillance de la vie privée du pays a déclaré en juin qu'il avait averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes.

POLOGNE

* Enquête sur d'éventuelles violations

L'Office polonais de protection des données personnelles (UODO) a déclaré le 21 septembre qu'il enquêtait sur OpenAI à la suite d'une plainte selon laquelle ChatGPT enfreint les lois de l'UE sur la protection des données. Le plaignant anonyme a déclaré qu'OpenAI n'avait pas corrigé les fausses informations le concernant qui avaient été générées par ChatGPT.

ESPAGNE

* Enquête sur d'éventuelles infractions

L'agence espagnole de protection des données a lancé en avril une enquête préliminaire sur d'éventuelles violations de données par ChatGPT.

NATIONS UNIES

* Réglementation en matière de planification

Le Conseil de sécurité de l'ONU a tenu sa première discussion officielle sur l'IA à New York en juillet, abordant les applications militaires et non militaires de l'IA, qui "pourraient avoir des conséquences très graves pour la paix et la sécurité mondiales", a déclaré le secrétaire général de l'ONU, Antonio Guterres.

En juin, M. Guterres a soutenu une proposition de certains responsables de l'IA visant à créer un organisme de surveillance de l'IA, à l'instar de l'Agence internationale de l'énergie atomique. Il a également annoncé son intention de mettre en place, d'ici la fin de l'année, un organe consultatif de haut niveau sur l'IA, chargé d'examiner les modalités de gouvernance de l'IA.

LES ÉTATS-UNIS

* Recherche d'informations sur les réglementations

Le Congrès américain a organisé des auditions sur l'IA entre le 11 et le 13 septembre, ainsi qu'un forum sur l'IA auquel ont participé Mark Zuckerberg, PDG de Meta Platforms, et Elon Musk, PDG de Tesla.

Plus de 60 sénateurs ont participé aux discussions, au cours desquelles Elon Musk a appelé à un "arbitre" américain pour l'IA. Les législateurs ont déclaré que tout le monde s'accordait sur la nécessité d'une réglementation gouvernementale de la technologie.

Le 12 septembre, la Maison-Blanche a annoncé qu'Adobe, IBM, Nvidia et cinq autres entreprises avaient signé les engagements volontaires du président Joe Biden en matière d'IA, qui prévoient des mesures telles que la mise en place d'un filigrane pour les contenus générés par l'IA.

Le 21 août, Beryl Howell, juge du district de Washington D.C., a décidé qu'une œuvre d'art créée par l'IA sans aucune intervention humaine ne pouvait être protégée par le droit d'auteur en vertu de la législation américaine.

La Commission fédérale du commerce des États-Unis a ouvert en juillet une enquête sur OpenAI, qui aurait enfreint les lois sur la protection des consommateurs. (Compilé par Alessandro Parodi et Amir Orusov à Gdansk ; Montage par Kirsten Donovan, Mark Potter, Christina Fincher et Milla Nissi)