Sextorsion et pornographie: les femmes, principales victimes des deepfakes générés par IA

Montage photo montrant une publicité pour créer des filles à partir de l'IA sur une annonce publiée par le FBI concernant des personnes malveillantes manipulant des photos et des vidéos pour créer des contenus explicites.. AFP or licensors

Entre applications photo qui déshabillent numériquement les femmes, messages sexualisés mettant en scène des filles nées de l’intelligence artificielle et images manipulées en vue d’un racket de «sextorsion», l’hypertrucage (deepfake) pornographique est en plein essor, prenant de court les législateurs.

Le 25/07/2023 à 07h17

La propagation de ces contenus altérés par l’intelligence artificielle (IA) a dépassé les efforts américains et européens visant à réglementer ce jeune domaine technologique.

Plusieurs photographies, fausses et perfectionnées, sont devenues virales ces derniers mois. L’une, prêtant à sourire, montrait le pape François en «doudoune», une énorme veste blanche rembourrée de duvet. L’autre, plus sérieuse, avait soi-disant immortalisé une arrestation de l’ancien président des Etats-Unis Donald Trump.

Mais bien plus répandue est l’utilisation de ces algorithmes pour générer des contenus pornographiques, à l’insu des intéressés ciblés, dont les vies en sont parfois détruites, estiment des experts. Et les femmes en sont les premières victimes.

«L’essor du porno généré par l’IA normalise l’utilisation de l’image ou de la ressemblance d’une femme sans son consentement», souligne auprès de l’AFP Sophie Maddocks, chercheuse à l’université de Pennsylvanie qui suit les abus sexuels liés à l’image.

«En tant que société, quel message envoyons-nous sur le consentement lorsque vous pouvez virtuellement déshabiller n’importe quelle femme?», interroge-t-elle.

QTCinderella, une streameuse américaine de Twitch, l’a appris à ses dépens: elle a raconté dans une vidéo avoir été harcelée après l’utilisation pornographique de son image en déplorant, en larmes, «l’exploitation et l’objectivation constantes» des femmes. Elle a déclaré sur Twitter que cette expérience l’avait «anéantie».

Désinformation

Car ces hypertrucages ou «faux en profondeur» peuvent ruiner une réputation, servir à des actes d’intimidation ou de harcèlement. Ils illustrent la menace de la désinformation par l’IA.

Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, 96% des fausses vidéos en ligne sont de la pornographie non consensuelle et la plupart d’entre elles représentent des femmes: des célébrités comme la chanteuse Taylor Swift et l’actrice Emma Watson, mais aussi énormément de femmes qui n’occupent pas le premier plan médiatique.

Les médias américains et européens regorgent de témoignages de femmes universitaires ou militantes qui ont été choquées de découvrir leur visage dans du deepfake porno.

«Le fantasme sexuel, très privé, développé autrefois dans l’imaginaire d’une personne, est maintenant transféré à la technologie et aux créateurs de contenu dans le monde réel», résume pour l’AFP Roberta Duffield, directrice de l’intelligence chez Blackbird.AI.

«La facilité d’accès et le manque de surveillance - ainsi que la professionnalisation croissante de l’industrie - ancrent ces technologies dans de nouvelles formes d’exploitation et d’affaiblissement des femmes», pointe-t-elle encore.

Parmi les nouveaux générateurs de texte-art, on trouve des applications gratuites qui peuvent créer des «filles IA hyperréelles» - des avatars à partir de photos réelles, que l’on peut personnaliser en demandant «peau foncée» ou «ceinture de cuisses».

De nouvelles technologies telles que Stable Diffusion, un modèle d’IA en libre accès développé par Stability AI, permettent des images réalistes à partir de descriptions textuelles.

«Sous notre nez»

Les avancées technologiques ont donné naissance à ce que Roberta Duffield appelle une «industrie artisanale en expansion» autour du porno généré par l’intelligence artificielle, dont de nombreux acteurs acceptent de générer du contenu - payant - mettant en scène la personne choisie par le client.

Le mois dernier, le FBI a mis en garde contre les chantages aux hypertrucages sexuels, fabriqués à partir d’images diffusées sur les réseaux sociaux et utilisés pour extorquer de l’argent aux victimes ou à leur famille, ces victimes pouvant être des enfants.

Face à cette prolifération d’outils d’IA, la réglementation est dépassée.

«La loi doit rattraper son retard», professe Dan Purcell, directeur général et fondateur de la société Ceartas, spécialisée dans la protection des marques. «Il ne s’agit pas d’un coin sombre de l’internet où ces images sont créées et partagées. C’est juste sous notre nez», dit-il à l’AFP, en prônant des lois internationales harmonisées. «L’internet est une juridiction sans frontières».

En Grande-Bretagne, un nouveau projet législatif est en gestation pour criminaliser le partage de contenus pornographiques ainsi trafiqués.

Quatre États américains, dont la Californie et la Virginie, en ont déjà interdit la distribution, mais les victimes n’ont souvent que peu de recours si les auteurs vivent en dehors de ces juridictions.

En mai, un législateur américain a présenté la loi Preventing Deepfakes of Intimate Images Act, qui rendrait illégal le partage de tels contenus sans l’assentiment des personnes concernées. Des sites populaires tels que Reddit ont également cherché à réglementer leurs communautés de pornographie IA en plein essor.

Par Le360 (avec AFP)
Le 25/07/2023 à 07h17

Bienvenue dans l’espace commentaire

Nous souhaitons un espace de débat, d’échange et de dialogue. Afin d'améliorer la qualité des échanges sous nos articles, ainsi que votre expérience de contribution, nous vous invitons à consulter nos règles d’utilisation.

Lire notre charte

VOS RÉACTIONS

Aujourd’hui avec l’ IA il faut être complètement masochiste ou stupide pour étaler sa vie privée et ses photos sur les réseaux sociaux !.Surtout qu’il il évident que des IA comme Chat GPT par exemple sont surtout conçu pour récupérer le maximum d’informations sur les utilisateurs!.Même l’Ex Twitter ,devenu X fera pareil à l’avenir !. C’est d’ailleurs pour cela qu’il est entrain d’être complètement modifié !. Les données personnel rapportent des billions par jour aux GAFA il faut arrêter d’être naïfs !.

Et ces pauvres femmes qui pleurent sur leur image trafiquée, c est ridicule...et elles ne s en rendent pas compte . Il y a bien d autres sujets sur lesquels pleuré !!!!! Là aussi on cherche les cerveaux !!!!

Par contre, il est dommage, fort dommage que l intelligence artificielle ne puisse pas greffer un vrai cerveau dans la tête des hommes qui en sont totalement dépourvu 😂🤣😂🤣

Le mieux c est de ne pas y prêter attention partant du principe sue toutes photos films....sur internet sont à la base trafiqués et que la réalité sur le net n existe pas .

0/800