IA et vol d’images : Femmes ciblées pour pornographie

IA et vol d'images Femmes ciblées pour pornographie

Il est de plus en plus courant de voir des images volées sur les réseaux sociaux pour créer de fausses influenceuses. Ces dernières sont ensuite utilisées pour vendre de la pornographie. C’est un phénomène qui prend de l’ampleur grâce à l’intelligence artificielle (IA). Dans cet article, nous allons détailler comment cela se passe.

Le vol d’images par l’IA

Des individus utilisent l’IA pour voler des images de femmes sur les réseaux sociaux. Ces images sont ensuite utilisées pour créer de fausses influenceuses.

Ces dernières sont utilisées pour encourager leurs abonnés à s’inscrire sur des plateformes où ils peuvent payer pour voir des images et des vidéos pornographiques générées par l’IA.

Un exemple concret

Un exemple de cette pratique peut être vu avec la chanteuse Alta Sweet Tabar. Une de ses vidéos a été reprise par une “influenceuse” AI pornographique australienne appelée “Amy Marie Richards”.

Cette dernière a remplacé le visage de Tabar par le sien et a republié la vidéo sur son compte Instagram, qui fait la promotion de sa page Fanvue et d’un bot de discussion sexuelle AI.

Les acteurs derrière cette pratique

Antonio Alvaro, un australien, est l’un des acteurs majeurs de cette industrie. Il a aidé à faire avancer l’industrie des influenceurs virtuels en faisant figurer l’un de ses modèles AI sur la couverture d’un magazine imprimé.

Il a depuis construit son propre empire de pornographie AI et gère certaines des influenceuses AI les plus populaires au monde.

Comment il opère

Alvaro opérait de manière anonyme, mais ABC Investigations a suivi ses traces numériques pour révéler son identité réelle.

Il utilisait les pseudonymes “Lazman555”, “Cavv” et “Shamman” et faisait partie d’une communauté créant des modifications et incorporant du contenu sexuel dans le jeu vidéo Fallout 4.

Les victimes de cette pratique

Les victimes de cette pratique ne sont pas seulement des célébrités ou des mannequins. Des personnes ordinaires sans profil public qui ont publié des vidéos d’elles-mêmes en train de danser ou en vacances sont également touchées.

Un exemple de victime

Un exemple de victime est une maquilleuse de 16 ans dont le visage a été deepfaked dans la vidéo d’un influenceur virtuel “Emilie Pavlova”.

La facilité de création de deepfakes

Il y a quelques années, la création de deepfakes réalistes aurait nécessité une maîtrise d’au moins un langage de programmation, ainsi que des compétences en montage vidéo et audio et un investissement important en temps.

Aujourd’hui, l’avancée rapide des générateurs d’images AI et leur facilité d’utilisation ont changé la donne.

Des tutoriels disponibles en ligne

Il existe des centaines de vidéos YouTube fournissant des tutoriels étape par étape sur la façon de créer et de monétiser des influenceurs AI. Ces vidéos montrent comment contourner les “couches de sécurité indésirables” sur les générateurs d’images populaires qui empêchent la nudité et les caricatures raciales.

La monétisation de ces fausses influenceuses

Une fois que ces fausses influenceuses sont créées, elles sont utilisées pour vendre de la pornographie. Les créateurs de ces fausses influenceuses utilisent des plateformes d’abonnement pour monétiser leur contenu.

Un exemple de monétisation

Un exemple de monétisation est “Emily Pellegrini”, une influenceuse AI qui rapporterait à son créateur plus de 10 000 dollars par mois.

Auteur / autrice

  • Meydeey

    Je vous aide à optimiser votre productivité et à propulser votre croissance en intégrant l'intelligence artificielle dans votre entreprise et en automatisant vos processus métier. Rejoignez ma communauté pour bénéficier de mes conseils d'expert et booster votre réussite professionnelle.

    Voir toutes les publications Spécialiste en IA et Automatisation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut