Les progrès rapides de l'intelligence artificielle (IA), tels que le ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour se mettre d'accord sur des lois régissant l'utilisation de la technologie.

Voici les dernières mesures prises par les instances gouvernementales nationales et internationales pour réglementer les outils d'IA :

AUSTRALIE

* Réglementation en matière de planification

L'Australie va demander aux moteurs de recherche de rédiger de nouveaux codes pour empêcher le partage de matériel pédopornographique créé par l'IA et la production de versions falsifiées de ce même matériel, a déclaré le 8 septembre l'autorité de régulation de l'internet du pays.

BRETAGNE

* Réglementation en matière d'urbanisme

L'autorité britannique de la concurrence et des marchés (CMA) a énoncé sept principes le 18 septembre afin de responsabiliser les développeurs, d'empêcher les grandes entreprises technologiques d'enfermer la technologie dans leurs plates-formes et de mettre un terme aux pratiques anticoncurrentielles telles que la vente groupée.

Les principes proposés, qui interviennent six semaines avant que la Grande-Bretagne n'accueille un sommet mondial sur la sécurité de l'IA, étayeront son approche de l'IA lorsqu'elle assumera, dans les mois à venir, de nouveaux pouvoirs pour superviser les marchés numériques.

L'autorité britannique de régulation de la concurrence a déclaré en mai qu'elle commencerait à examiner l'impact de l'IA sur les consommateurs, les entreprises et l'économie et qu'elle déterminerait si de nouveaux contrôles sont nécessaires.

CHINE

* Mise en œuvre de réglementations temporaires

La Chine a publié une série de mesures temporaires entrant en vigueur le 15 août, exigeant des fournisseurs de services qu'ils soumettent des évaluations de sécurité et qu'ils reçoivent une autorisation avant de lancer des produits d'intelligence artificielle sur le marché.

Suite à l'approbation du gouvernement, quatre entreprises technologiques chinoises, dont Baidu et SenseTime Group, ont lancé leurs chatbots d'IA au public le 31 août.

UNION EUROPÉENNE

* Réglementation en matière de planification

Le 13 septembre, la présidente de la Commission européenne, Ursula von der Leyen, a demandé la création d'un groupe d'experts mondial chargé d'évaluer les risques et les avantages de l'IA, à l'instar du groupe d'experts mondial du GIEC qui informe les décideurs politiques sur le climat.

En juin, les législateurs de l'UE ont accepté de modifier un projet de loi sur l'IA. Les législateurs doivent maintenant régler les détails avec les pays de l'UE avant que le projet de règles ne devienne une législation.

La principale question devrait être celle de la reconnaissance faciale et de la surveillance biométrique. Certains législateurs souhaitent une interdiction totale, tandis que les pays de l'UE veulent une exception pour les besoins de la sécurité nationale, de la défense et de l'armée.

FRANCE

* Enquête sur d'éventuelles violations

La Commission nationale de l'informatique et des libertés (CNIL) a déclaré en avril qu'elle enquêtait sur plusieurs plaintes concernant ChatGPT, après que le chatbot a été temporairement interdit en Italie en raison d'une violation présumée des règles de protection de la vie privée.

En mars, l'Assemblée nationale française a approuvé l'utilisation de l'IA pour la vidéosurveillance lors des Jeux olympiques de Paris en 2024, sans tenir compte des avertissements des groupes de défense des droits civils.

G7

* Recherche d'informations sur les réglementations

Les dirigeants du Groupe des Sept (G7) réunis à Hiroshima, au Japon, ont reconnu en mai la nécessité d'une gouvernance de l'IA et des technologies immersives et ont décidé de demander aux ministres de discuter de la technologie dans le cadre du "processus d'Hiroshima sur l'IA" et de rendre compte des résultats d'ici à la fin de l'année 2023.

Les pays du G7 devraient adopter une réglementation de l'IA "fondée sur les risques", ont déclaré les ministres du numérique du G7 à l'issue d'une réunion en avril.

IRLANDE

* Recherche d'informations sur les réglementations

L'IA générative doit être réglementée, mais les organes directeurs doivent déterminer comment le faire correctement avant de se précipiter sur des interdictions qui "ne tiendront pas la route", a déclaré en avril le responsable irlandais de la protection des données.

ISRAËL

* L'IA générative doit être réglementée.

Israël travaille sur la réglementation de l'IA afin de trouver un juste équilibre entre l'innovation et la préservation des droits de l'homme, a déclaré en juin Ziv Katzir, directeur de la planification nationale de l'IA à l'Autorité israélienne de l'innovation.

Israël a publié un projet de politique de l'IA de 115 pages en octobre 2022 et recueille les commentaires du public avant de prendre une décision finale.

ITALIE

* Enquête sur d'éventuelles infractions

L'autorité italienne de protection des données prévoit d'examiner les plateformes d'intelligence artificielle et d'embaucher des experts en IA, a déclaré un haut fonctionnaire en mai.

ChatGPT est devenu accessible aux utilisateurs italiens en avril, après avoir été temporairement interdit par l'autorité nationale de protection des données en mars.

JAPON

* Enquête sur d'éventuelles violations

Le Japon prévoit d'introduire d'ici à la fin de l'année 2023 des réglementations qui seront probablement plus proches de l'attitude des États-Unis que des réglementations strictes prévues par l'UE, a déclaré en juillet un fonctionnaire proche des délibérations.

L'organisme de surveillance de la vie privée du pays a déclaré en juin qu'il avait averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes.

ESPAGNE

* Enquête sur d'éventuelles violations

L'agence espagnole de protection des données a déclaré en avril qu'elle lançait une enquête préliminaire sur d'éventuelles violations de données par ChatGPT. Elle a également demandé à l'organisme de surveillance de la vie privée de l'UE d'évaluer les problèmes de protection de la vie privée liés à ChatGPT.

NATIONS UNIES

* Réglementation en matière d'urbanisme

Le Conseil de sécurité de l'ONU a tenu sa première discussion officielle sur l'IA à New York en juillet. Le Conseil s'est penché sur les applications militaires et non militaires de l'IA, qui "pourraient avoir des conséquences très graves pour la paix et la sécurité mondiales", a déclaré le secrétaire général de l'ONU, Antonio Guterres.

En juin, M. Guterres a soutenu une proposition de certains dirigeants de l'IA visant à créer un organisme de surveillance de l'IA, à l'instar de l'Agence internationale de l'énergie atomique, mais il a fait remarquer que "seuls les États membres peuvent le créer, et non le Secrétariat des Nations unies".

Le secrétaire général de l'ONU a également annoncé son intention de commencer à travailler d'ici la fin de l'année sur un organe consultatif de haut niveau chargé d'examiner les modalités de gouvernance de l'IA.

LES ÉTATS-UNIS

* Recherche d'informations sur les réglementations

Le Congrès américain a organisé des auditions sur l'IA entre le 11 et le 13 septembre, ainsi qu'un forum sur l'IA auquel ont participé Mark Zuckerberg, PDG de Meta Platforms, et Elon Musk, PDG de Tesla.

Plus de 60 sénateurs ont participé aux discussions, au cours desquelles Elon Musk a appelé à un "arbitre" américain pour l'IA. Les législateurs ont déclaré que tout le monde s'accordait sur la nécessité d'une réglementation gouvernementale de la technologie.

Le 12 septembre, la Maison-Blanche a annoncé qu'Adobe, IBM, Nvidia et cinq autres entreprises avaient signé les engagements volontaires du président Joe Biden en matière d'IA, qui prévoient des mesures telles que la mise en place d'un filigrane pour les contenus générés par l'IA.

Le 21 août, Beryl Howell, juge du district de Washington D.C., a décidé qu'une œuvre d'art créée par l'IA sans aucune intervention humaine ne pouvait être protégée par le droit d'auteur en vertu de la législation américaine.

La Commission fédérale du commerce des États-Unis (FTC) a ouvert en juillet une vaste enquête sur OpenAI, qui aurait enfreint les lois sur la protection des consommateurs. (Informations compilées par Alessandro Parodi et Amir Orusov à Gdansk ; rédaction : Kirsten Donovan, Mark Potter, Christina Fincher et Milla Nissi)