TikTok a annoncé jeudi qu'il commencerait à utiliser une technologie destinée à l'aider à étiqueter les images et les vidéos générées par l'intelligence artificielle et téléchargées sur le service de partage de vidéos.

TikTok a indiqué qu'il adopterait les "Content Credentials", un filigrane numérique qui indique comment les images ont été créées et modifiées. La technologie Content Credential a été lancée par Adobe, mais elle est ouverte à l'utilisation par d'autres entreprises et a déjà été adoptée par des sociétés telles que OpenAI, le créateur de ChatGPT.

Des chercheurs se sont inquiétés du fait que le contenu généré par l'IA pourrait être utilisé comme information erronée pour tenter d'interférer avec les élections américaines de cet automne. TikTok faisait déjà partie d'un groupe de 20 entreprises technologiques qui, au début de l'année, ont signé un accord dans lequel elles s'engagent à lutter contre ce phénomène.

YouTube, propriété de Google (Alphabet), ainsi que Meta Platforms, qui possède Instagram et Facebook, ont également déclaré qu'ils prévoyaient d'utiliser des certificats de contenu.

Pour que le système fonctionne, le fabricant de l'outil d'IA générative utilisé pour créer du contenu et la plateforme utilisée pour distribuer le contenu doivent tous deux accepter d'utiliser la norme industrielle.

Si une personne utilise l'outil Dall-E d'OpenAI pour générer une image, par exemple, OpenAI attache un filigrane à l'image résultante. Si cette image marquée est ensuite téléchargée sur TikTok, elle sera automatiquement étiquetée comme étant générée par l'IA.

TikTok, qui appartient à la société chinoise ByteDance, compte 170 millions d'utilisateurs aux États-Unis, qui ont récemment adopté une loi obligeant ByteDance à céder TikTok sous peine d'interdiction. TikTok et ByteDance ont intenté une action en justice pour bloquer la loi, arguant qu'elle viole le premier amendement.

TikTok appose déjà un label sur les contenus générés par l'IA à l'aide d'outils internes à l'application, mais cette nouvelle mesure permettrait d'apposer un label sur les contenus générés en dehors du service.

"Nous avons également des politiques qui interdisent l'IA réaliste qui n'est pas étiquetée, donc si l'IA réaliste (contenu généré) apparaît sur la plateforme, nous la supprimerons car elle viole nos directives communautaires", a déclaré Adam Presser, responsable des opérations, de la confiance et de la sécurité chez TikTok, lors d'une interview. (Reportage de Stephen Nellis à San Francisco ; rédaction de Diane Craft)