RFI: IA et pornographie: Grok n’est que la face émergée de l’iceberg

https://www.rfi.fr/fr/technologies/20260117-ia-et-pornographie-grok-face-%C3%A9merg%C3%A9e-de-iceberg

IA et pornographie: Grok n’est que la face émergée de l’iceberg
www.rfi.fr
Interdit dans plusieurs pays pour permettre à ses utilisateurs de créer des images à caractère sexuel à partir de n'importe quelle photo, l'intelligence artificielle Grok n'est que le révélateur d'une large tendance qui prend de l'ampleur. Le développement exponentiel de l'IA permet, depuis plusieurs années déjà, à tout un chacun de dénuder n'importe qui, sans souci du consentement.

Publié le : 17/01/2026 - 07:56Modifié le : 17/01/2026 - 07:59

6 min Temps de lecture
Depuis 2019, le nombre d'applications qui permettent de dénuder virtuellement des femmes n'a fait qu'augmenter.
Depuis 2019, le nombre d'applications qui permettent de dénuder virtuellement des femmes n'a fait qu'augmenter. © REUTERS
Par : Jean-Baptiste Breen
Publicité
« Tout ce qui existe a forcément sa version porno. » Connu comme la 34e règle d’Internet, ce dicton n’a jamais semblé si véridique. Apparu à la genèse du net moderne, cet adage témoigne de l’omniprésence, en ligne, de la pornographie.

Alors que la Malaisie et l’Indonésie puis les Philippines viennent de bloquer l’utilisation de Grok, cette règle, tristement ironique, prend tout son sens. Depuis quelques mois, de nombreux internautes usent et abusent de l’intelligence artificielle du réseau social X pour dénuder numériquement quantité de personnes non consentantes. Sans surprise, les victimes sont, pour une écrasante majorité, des femmes.

Mais Grok n’est que la façade médiatisée d’une tendance bien plus vaste. Depuis bientôt six ans, le nombre de deepfakes – des images utilisant le visage d’une personne à des fins pornographiques – a explosé. « On estime qu’entre 2019 et 2023 le nombre de deepfakes pornographiques a été multiplié par 5 », appuie Camille Salinesi, co-directeur de l'Observatoire de l'IA.

Les recherches de l’entreprise de cybersécurité Security Heroes rendent effectivement compte d’une hausse de 550 % des vidéos mettant à profit cette technologie sur cette période. Presque exclusivement réalisées sans l’accord de l’intéressée, ces images portent gravement atteinte à l’intégrité des individus représentés.

Deepfakes et mises à nu virtuelles
Grok n’a rien inventé. Voilà déjà plusieurs années que les logiciels et applications qui permettent de déshabiller virtuellement des personnes grâce à une simple photo pullulent. « En 2017-2019, il fallait de bonnes compétences en IA, une carte graphique et pas mal de temps pour produire un deepfake convaincant », remarque Camille Salinesi. Mais le perfectionnement fulgurant de ces technologies a rebattu les cartes. « Depuis 2023 et encore plus aujourd’hui, n’importe qui peut générer une image sexualisée sur internet à partir d’une simple photo et d’un prompt. Ça prend quelques secondes et un smartphone. »

Au départ, les créateurs de ce type de contenu utilisaient des applications de « faceswapping », permettant d’échanger le visage d’une personne par un autre et d’appliquer cette rapide manipulation à des scènes pornographiques. Une manière douteuse de détourner l’usage de ces logiciels, rapidement rendue obsolète par l’émergence d’applications dédiées.

Baptisées « nudify apps », elles sont pour beaucoup accessibles en quelques clics via un moteur de recherche traditionnel et enregistrent plusieurs dizaines de millions de visiteurs tous les mois. Et pour cause, leurs développeurs ne sont pas avares en moyens investis pour promouvoir leurs créations. Elles se retrouvent ainsi mises en avant sur des plateformes comme X ou Reddit, mais aussi jusque sur Instagram, comme le révélait CBS en juin 2025. « Beaucoup de ces publicités ciblaient spécifiquement des hommes âgés de 18 à 65 ans et étaient actives aux États-Unis, dans l’Union européenne et au Royaume-Uni », notait le média américain.

Ces sites sont nombreux à proposer des fonctionnalités supplémentaires pour donner un éventail de possibilités plus large à leurs clients dans la génération d'images pornographiques. Tout cela moyennant finance. Un marché en apparence lucratif aux incidences perverses.

Diffusion massive
Ces technologies ont rapidement dépassé le cadre de l’usage privé. Grâce à elles, nombreux sont ceux qui ont pu fabriquer, de toutes pièces, du contenu pornographique d’un tout nouveau genre. Sur les dix principaux sites pour adultes, Security Heroes en dénombrait sept qui hébergeait des deepfakes en 2023. D’autres en ont même fait leur fonds de commerce.

« Des sites spécialisés agrègent, classent et monétisent ces contenus, notamment avec des publicités, mais aussi avec des systèmes d’abonnement, et même carrément des commandes sur mesure », insiste Camille Salinesi. « On retrouve les mêmes dynamiques économiques que pour la pornographie en ligne. »

Fermé en mai 2025, l’un des plus gros poissons de cette industrie, Mr. Deepfakes, hébergeait plus de 70 000 vidéos de ce type. Mais cela reste bien peu face à la totalité du contenu disponible, qui croît à un rythme effréné chaque année. La plupart des individus ciblés sont des personnalités féminines du monde de la chanson ou du cinéma.

« Cette économie exploite des dynamiques qu’on connait bien : misogynie, culture du harcèlement, impunité en ligne et fascination pour le corps des célébrités », énumère Camille Salinesi. Mais cette perte de contrôle totale sur sa propre image dépasse désormais largement le seul cadre de la notoriété.

Il est désormais possible de « créer une image de nu à peu près convaincante à partir de n’importe quelle photo récupérée sur internet, sur les réseaux sociaux et ce sans aucun contrôle ni vérification du consentement de la personne concernée », développe le chercheur. Ceux qui les créent ou les diffusent « font complètement l’impasse sur la violence réelle subie par les personnes ciblées ».

« Le droit à l'oubli n'existe pas »
Certains cas vont même jusqu’à l’extorsion, au chantage ou à la vengeance pornographique – « revenge porn ». En mai 2025, un homme de 20 ans a été condamné à deux ans de prison avec sursis par le tribunal de Coutances pour avoir diffusé sur Instagram des photos obscènes, générée par IA, d’une collégienne de 14 ans sous prétexte qu’elle refusait de lui envoyer des images dénudées d’elle.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

« On sous-estime complètement le préjudice psychologique, qui est énorme pour les victimes », soulève Claire Poirson, avocate spécialisée en intelligence artificielle et autrice du Livre Blanc « Démêler le vrai du faux à l’ère des deepfakes : est-ce encore possible ? ». Les séquelles causées « sont très fortes chez les jeunes, surtout les jeunes filles : anxiété, stress post-traumatique, mais aussi troubles alimentaires », poursuit la juriste. « Sur internet, le droit à l'oubli n'existe pas et ces filles-là vivent avec le stress permanent que ça remonte un jour. »

En 2023, sur la totalité des deepfakes pornographiques créées, « 99 % des personnes visées étaient des femmes », explique Camille Salinesi. Claire Poirson abonde en ce sens, tout en soulignant une autre tendance alarmante. Ces contenus ciblent, de plus en plus, les mineurs. En témoigne l'affaire de Coutances.

Pour brouiller les pistes et qu’il ne soit pas possible de remonter jusqu’à lui, l’homme qui diffusait des images dénudées de la collégienne a fait 12 autres victimes – la plus jeune âgée de 12 ans. Sa condamnation est la première application d’une loi dont s’est dotée la France pour tenter de lutter contre ces pratiques.

Adoptée en mai 2024, la loi SREN – « sécuriser et réguler l'espace numérique » – prévoit « deux infractions spécifiques en lien avec des montages générés par un traitement algorithmique avec ou sans caractère sexuel », précise Claire Poirson. Se pose toutefois la question de la preuve.

Avec le perfectionnement toujours croissant des deepfakes, la difficulté de différencier le vrai du faux ne fait qu’augmenter. La justice devra alors se doter d’outils capables de démontrer qu’une image ou une vidéo est bien une construction virtuelle pour juger convenablement les coupables.