Il est de plus en plus courant de voir des images volées sur les réseaux sociaux pour créer de fausses influenceuses. Ces dernières sont ensuite utilisées pour vendre de la pornographie. C’est un phénomène qui prend de l’ampleur grâce à l’intelligence artificielle (IA). Dans cet article, nous allons détailler comment cela se passe.
Le vol d’images par l’IA
Des individus utilisent l’IA pour voler des images de femmes sur les réseaux sociaux. Ces images sont ensuite utilisées pour créer de fausses influenceuses.
Ces dernières sont utilisées pour encourager leurs abonnés à s’inscrire sur des plateformes où ils peuvent payer pour voir des images et des vidéos pornographiques générées par l’IA.
Un exemple concret
Un exemple de cette pratique peut être vu avec la chanteuse Alta Sweet Tabar. Une de ses vidéos a été reprise par une “influenceuse” AI pornographique australienne appelée “Amy Marie Richards”.
Cette dernière a remplacé le visage de Tabar par le sien et a republié la vidéo sur son compte Instagram, qui fait la promotion de sa page Fanvue et d’un bot de discussion sexuelle AI.
Les acteurs derrière cette pratique
Antonio Alvaro, un australien, est l’un des acteurs majeurs de cette industrie. Il a aidé à faire avancer l’industrie des influenceurs virtuels en faisant figurer l’un de ses modèles AI sur la couverture d’un magazine imprimé.
Il a depuis construit son propre empire de pornographie AI et gère certaines des influenceuses AI les plus populaires au monde.
Comment il opère
Alvaro opérait de manière anonyme, mais ABC Investigations a suivi ses traces numériques pour révéler son identité réelle.
Il utilisait les pseudonymes “Lazman555”, “Cavv” et “Shamman” et faisait partie d’une communauté créant des modifications et incorporant du contenu sexuel dans le jeu vidéo Fallout 4.
Les victimes de cette pratique
Les victimes de cette pratique ne sont pas seulement des célébrités ou des mannequins. Des personnes ordinaires sans profil public qui ont publié des vidéos d’elles-mêmes en train de danser ou en vacances sont également touchées.
Un exemple de victime
Un exemple de victime est une maquilleuse de 16 ans dont le visage a été deepfaked dans la vidéo d’un influenceur virtuel “Emilie Pavlova”.
La facilité de création de deepfakes
Il y a quelques années, la création de deepfakes réalistes aurait nécessité une maîtrise d’au moins un langage de programmation, ainsi que des compétences en montage vidéo et audio et un investissement important en temps.
Aujourd’hui, l’avancée rapide des générateurs d’images AI et leur facilité d’utilisation ont changé la donne.
Des tutoriels disponibles en ligne
Il existe des centaines de vidéos YouTube fournissant des tutoriels étape par étape sur la façon de créer et de monétiser des influenceurs AI. Ces vidéos montrent comment contourner les “couches de sécurité indésirables” sur les générateurs d’images populaires qui empêchent la nudité et les caricatures raciales.
La monétisation de ces fausses influenceuses
Une fois que ces fausses influenceuses sont créées, elles sont utilisées pour vendre de la pornographie. Les créateurs de ces fausses influenceuses utilisent des plateformes d’abonnement pour monétiser leur contenu.
Un exemple de monétisation
Un exemple de monétisation est “Emily Pellegrini”, une influenceuse AI qui rapporterait à son créateur plus de 10 000 dollars par mois.