Un nouveau système pour identifier les contenus générés par l’intelligence artificielle (IA) sera mis en place par Meta, le géant américain des réseaux sociaux. Cette initiative vise à lutter contre la désinformation, particulièrement en cette année riche en scrutins électoraux.
Identification des contenus générés par IA
À partir du mois de mai, Meta commencera à étiqueter les contenus générés par l’IA sur ses plateformes. Cette mention “Made with AI” sera apposée sur un grand nombre de contenus vidéo, audio et images. La détection se fera grâce à des indicateurs d’image IA conformes aux normes de l’industrie ou si des utilisateurs indiquent qu’ils mettent en ligne des contenus générés par l’IA.
Le rôle du “watermarking”
En plus de la détection de marqueurs visibles, Meta compte aussi déceler toute trace de “watermarking”. Il s’agit d’une forme de “tatouage” numérique qui consiste à insérer une marque invisible à l’intérieur d’une image lorsqu’un outil utilisant l’IA la génère. Cependant, cette technique n’est pas infaillible. Par exemple, les logiciels en source ouverte (“open source”) n’ont pas toujours recours à ce type de “tatouage” lorsqu’ils créent une image.
Modification du traitement des contenus modifiés par une IA
Meta annonce également qu’il va modifier sa manière de traiter les contenus modifiés par une IA. Désormais, l’entreprise préfère ajouter “des étiquettes et du contexte” à ces contenus, plutôt que de les supprimer comme elle le faisait jusqu’à présent. Cependant, elle continuera à retirer de ses plateformes tout contenu, qu’il soit créé par un humain ou une IA, qui enfreint ses règles.
Fact-checkers indépendants
Meta compte également sur son réseau “d’environ 100 fact-checkers indépendants” pour repérer les contenus générés par IA “faux ou trompeurs”.
Engagements similaires d’autres géants de la tech
- Microsoft
- OpenAI
- Adobe
Ces entreprises ont également pris des engagements similaires pour lutter contre la désinformation.
Les risques de l’IA générative
L’essor de l’IA générative fait craindre que des personnes n’utilisent ces outils pour semer le chaos politique, notamment par le biais de la désinformation ou de la mésinformation. De plus, le développement de programmes d’IA générative s’accompagne de la production d’un flux de contenus dégradants, comme les fausses images (“deepfakes”) pornographiques de femmes célèbres, phénomène qui vise également des anonymes.