Les progrès rapides de l'intelligence artificielle (IA), tels que le ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour se mettre d'accord sur des lois régissant l'utilisation de la technologie.

Voici les dernières mesures prises par les instances gouvernementales nationales et internationales pour réglementer les outils d'IA :

AUSTRALIE

* Réglementation en matière de planification

Le gouvernement australien a déclaré le 17 janvier qu'il mettrait en place un organisme consultatif pour atténuer les risques de l'IA et qu'il prévoyait de travailler avec des organismes industriels pour introduire une série de lignes directrices, notamment en encourageant les entreprises technologiques à étiqueter et à filigraner le contenu généré par l'IA.

BRETAGNE

* Réglementation en matière d'urbanisme

En novembre, lors du premier sommet mondial sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne, les principaux développeurs d'IA ont convenu de collaborer avec les gouvernements pour tester les nouveaux modèles d'avant-garde avant leur mise sur le marché, afin d'aider à gérer les risques liés au développement de la technologie.

Plus de 25 pays présents au sommet, dont les États-Unis et la Chine, ainsi que l'UE, ont signé une "déclaration de Bletchley" afin de collaborer et d'établir une approche commune en matière de surveillance.

Lors du sommet, la Grande-Bretagne a déclaré qu'elle triplerait son financement pour atteindre 300 millions de livres (364 millions de dollars) pour la "ressource de recherche sur l'IA", comprenant deux superordinateurs qui soutiendront la recherche sur la sécurisation des modèles d'IA avancés, une semaine après que le Premier ministre Rishi Sunak ait déclaré que la Grande-Bretagne créerait le premier institut de sécurité de l'IA au monde.

L'autorité britannique de surveillance des données a déclaré en octobre qu'elle avait émis un avis préliminaire d'exécution à l'encontre de Snapchat, qui appartient à Snap Inc., pour n'avoir pas correctement évalué les risques pour la vie privée des utilisateurs, en particulier des enfants, de son chatbot d'IA générative.

CHINE

* Mise en œuvre de réglementations temporaires

Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne en novembre que Pékin était prêt à renforcer la collaboration en matière de sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

En octobre, la Chine a publié des propositions d'exigences de sécurité pour les entreprises proposant des services alimentés par l'IA générative, y compris une liste noire de sources qui ne peuvent pas être utilisées pour former des modèles d'IA.

Le pays a publié une série de mesures temporaires en août, exigeant des fournisseurs de services qu'ils soumettent des évaluations de sécurité et qu'ils reçoivent une autorisation avant de commercialiser des produits d'IA à grande échelle.

UNION EUROPÉENNE

* Réglementation en matière de planification

Deux groupes clés de législateurs de l'UE ont ratifié un accord provisoire sur les règles de l'IA le 13 février, avant un vote du Parlement européen en avril qui ouvrira la voie à la première législation mondiale sur cette technologie.

Le 2 février, les pays de l'UE ont approuvé un accord politique conclu en décembre sur l'AI Act, qui vise à mieux contrôler l'utilisation de l'IA par les gouvernements dans le cadre de la surveillance biométrique et la manière de réglementer les systèmes d'IA.

L'accord exige que les modèles de base et les systèmes d'IA à usage général se conforment à des obligations de transparence avant d'être mis sur le marché. Il s'agit notamment d'établir une documentation technique, de respecter la législation européenne en matière de droits d'auteur et de diffuser des résumés détaillés sur le contenu utilisé pour la formation.

FRANCE

* Enquête sur d'éventuelles infractions

L'organisme français de protection de la vie privée a déclaré en avril qu'il enquêtait sur des plaintes concernant ChatGPT.

G7

* Recherche d'informations sur les réglementations

Les pays du G7 ont adopté en octobre un code de conduite en 11 points à l'intention des entreprises qui développent des systèmes d'IA avancés. Ce code "vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier".

ITALIE

* Enquête sur d'éventuelles infractions

L'autorité italienne chargée de la protection des données prévoit d'examiner les plateformes d'IA et d'engager des experts dans ce domaine, a déclaré un haut fonctionnaire en mai. ChatGPT a été temporairement interdit en Italie en mars 2023, mais il est redevenu accessible en avril.

JAPON

* Réglementation en matière de planification

L'organisme japonais de surveillance de la vie privée a averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes.

POLOGNE

* Enquête sur d'éventuelles violations

L'Office polonais de protection des données personnelles a déclaré en septembre qu'il enquêtait sur OpenAI à la suite d'une plainte selon laquelle ChatGPT enfreint les lois européennes sur la protection des données.

ESPAGNE

* Enquête sur d'éventuelles violations

L'agence espagnole de protection des données a lancé en avril une enquête préliminaire sur d'éventuelles violations de données par ChatGPT.

NATIONS UNIES

* Réglementation en matière de planification

Le secrétaire général de l'ONU, António Guterres, a annoncé en octobre la création d'un organe consultatif de 39 membres, composé de dirigeants d'entreprises technologiques, de fonctionnaires et d'universitaires, chargé d'examiner les questions relatives à la gouvernance internationale de l'IA.

ÉTATS-UNIS

* Recherche d'informations sur les réglementations

Les États-Unis, la Grande-Bretagne et plus d'une douzaine d'autres pays ont dévoilé en novembre un accord non contraignant de 20 pages contenant des recommandations générales sur l'IA, telles que la surveillance des systèmes en cas d'abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.

Les États-Unis vont créer un institut de sécurité de l'IA afin d'évaluer les risques connus et émergents des modèles d'IA dits "pionniers", a déclaré la secrétaire au commerce, Gina Raimondo, le 1er novembre, lors du sommet sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne.

Le 30 octobre, le président Joe Biden a publié un décret exigeant que les développeurs de systèmes d'IA présentant des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis partagent les résultats des tests de sécurité avec le gouvernement.

VILLE DU VATICAN

* La Commission européenne demande des informations sur les réglementations

Le pape François a appelé en décembre à un traité international juridiquement contraignant pour réglementer l'IA, affirmant que les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et mettant en garde contre une "dictature technologique" menaçant l'existence humaine. (Compilé par Alessandro Parodi et Amir Orusov à Gdansk ; Rédaction par Emelia Sithole-Matarise, William Maclean, Milla Nissi)