Meta a annoncé une initiative visant à renforcer l’étiquetage des images générées par intelligence artificielle (IA) sur ses plateformes.
Cette mesure s’inscrit dans un effort plus large pour lutter contre la désinformation, un enjeu particulièrement critique en période électorale, notamment aux États-Unis.
Le président des affaires mondiales de Meta, Nick Clegg, a révélé que l’entreprise collabore avec des partenaires de l’industrie pour élaborer de nouvelles normes. Ces dernières permettront de signaler les médias – qu’il s’agisse d’images, de vidéos ou d’enregistrements audio – créés à l’aide d’outils d’IA. L’objectif est d’intégrer ces normes au sein des plateformes de Meta dans le courant de l’année à venir.
Meta met actuellement au point des technologies capables de détecter des « signaux invisibles ». Il s’agit d’informations spécifiques générées par l’IA qui répondent aux standards techniques du Content Authenticity Initiative (C2PA) et de l’International Press Telecommunications Council (IPTC). Grâce à cela, Meta espère pouvoir identifier et marquer automatiquement les images issues de sources telles que Google, OpenAI, Microsoft, Adobe, entre autres.
Pour ce qui est des contenus vidéo et audio générés par l’IA, Meta compte sur la vigilance de ses utilisateurs. Ces derniers sont encouragés à signaler les contenus produits par des outils d’IA tiers. Cette démarche repose sur un principe de responsabilité partagée, en attendant que l’entreprise puisse étendre ses capacités de détection à ces types de médias.