Meta sera prêt en mai pour l’identification des contenus générés par l'IA

intelligence

Meta va identifier sur ses réseaux sociaux les sons, images et vidéos générés par l'intelligence artificielle (IA) à partir du mois de mai, une décision prise sur fond de lutte contre la désinformation dans une année riche en scrutins électoraux.

Ainsi, "Nous prévoyons de commencer à étiqueter les contenus générés par l'IA en mai 2024", a expliqué vendredi dans une note de blog Monika Bickert, vice-présidente en charge des politiques de contenus de la maison mère de Facebook, Instagram et Threads, précisant que la mention "Made with AI" allait être apposée "sur un plus grand nombre de contenus vidéo, audio et images" que précédemment. Ces contenus seront marqués par la plateforme si elle détecte "des indicateurs d'image IA conformes aux normes de l'industrie" ou si "des personnes indiquent qu'elles mettent en ligne des contenus générés par l'IA", a-t-elle souligné. Outre la détection de marqueurs visibles, Meta compte aussi déceler toute trace de "watermarking", une forme de "tatouage" numérique qui consiste à insérer une marque invisible à l'intérieur d'une image lorsqu'un outil utilisant l'IA la génère.

"Un filtre, c'est mieux que rien mais il y aura forcément des trous dans la raquette", relève uprès de l'AFP Nicolas Gaudemet, directeur IA du cabinet Onepoint. Il prend l'exemple des logiciels open source, qui n'ont pas toujours recours à ce type de "tatouage" quand ils créent une image, mais relève que la plupart des IA génératives grand public, comme celles de Google, Microsoft ou OpenAI, "intègrent aujourd'hui ce type de technologie". Le groupe californien annonce plus globalement qu'il va modifier sa manière de traiter les contenus modifiés par une IA, après consultation de son conseil de surveillance, estimant que "la transparence et davantage de contexte sont désormais la meilleure façon de traiter les contenus manipulés", "afin d'éviter le risque de restreindre inutilement la liberté d'expression". En l'occurrence, il considère désormais qu'il est préférable d'ajouter "des étiquettes et du contexte" à ces contenus, plutôt que de les supprimer comme il s'y employait jusqu'ici.

L'entreprise a néanmoins précisé qu'elle allait continuer à retirer de ses plateformes tout contenu, qu'il soit créé par un humain ou une IA, allant à l'encontre de ses règles "contre l'ingérence dans le processus électoral, l'intimidation, le harcèlement, la violence (...) ou toute autre politique figurant dans nos normes communautaires". Elle compte également sur son réseau "d'environ 100 fact-checkers indépendants" pour repérer les contenus générés par IA "faux ou trompeurs". La maison mère de Facebook avait annoncé en février son souhait d'étiqueter toute image générée par IA, une décision prise sur fond de lutte contre la désinformation. D'autres géants de la tech comme Microsoft, Google, OpenAI ou Adobe ont pris des engagements similaires.

À lire aussi

Filtrer par