L’affaire Grok a remis le deepfake sexuel au centre du débat pénal. Le parquet de Paris a communiqué en février 2026 sur une enquête visant notamment la diffusion de deepfakes à caractère sexuel sur X, en plus d’autres infractions numériques. Début mai 2026, l’affaire a connu un nouveau regain médiatique autour des responsabilités possibles de la plateforme et de ses dirigeants.
Pour le lecteur, la question utile n’est pas seulement de savoir si un deepfake est « illégal ». Elle est plus concrète : que risque la personne qui génère l’image, celle qui la partage dans un groupe privé, celle qui la republie sur X, Telegram, Discord ou Instagram, et que doit faire la victime pour conserver les preuves sans aggraver la diffusion ?
La réponse dépend de trois éléments : le caractère sexuel ou non du montage, l’absence de consentement de la personne représentée, et le mode de diffusion. Le droit pénal français vise aujourd’hui les montages classiques, mais aussi les contenus visuels ou sonores générés par intelligence artificielle.
Deepfake, hypertrucage, montage sexuel : de quoi parle-t-on ?
La CNIL définit l’hypertrucage comme un contenu audio, photo ou vidéo créé ou modifié grâce à des techniques d’intelligence artificielle. Le résultat peut imiter une voix, un visage, une expression ou une scène entière.
Sur le plan pénal, il faut distinguer plusieurs situations.
Le deepfake non sexuel peut relever de l’article 226-8 du Code pénal lorsqu’il représente l’image ou les paroles d’une personne sans son consentement et qu’il n’est pas évident, ou pas indiqué, qu’il s’agit d’un contenu généré ou manipulé. L’enjeu est alors l’atteinte à la représentation de la personne.
Le deepfake sexuel relève d’un régime plus sévère. L’article 226-8-1 du Code pénal vise le montage à caractère sexuel réalisé avec les paroles ou l’image d’une personne sans son consentement. Il vise aussi le contenu visuel ou sonore sexuel généré par traitement algorithmique qui reproduit l’image ou les paroles d’une personne sans son accord.
Le cyberharcèlement peut s’ajouter lorsque le contenu s’inscrit dans une répétition de messages, publications, relais ou humiliations en ligne. Service-Public rappelle que la victime peut signaler les faits, demander le retrait des contenus et déposer plainte contre les auteurs.
Que risque celui qui crée le deepfake sexuel ?
Créer un deepfake sexuel avec l’image ou la voix d’une personne réelle n’est pas un jeu technique neutre. Lorsque le contenu est porté à la connaissance d’un tiers ou du public, l’article 226-8-1 du Code pénal prévoit deux ans d’emprisonnement et 60 000 euros d’amende.
La peine est portée à trois ans d’emprisonnement et 75 000 euros d’amende lorsque la publication du montage ou du contenu généré par IA est réalisée au moyen d’un service de communication au public en ligne. En pratique, cela vise la diffusion sur un réseau social, une plateforme vidéo, un forum, un groupe public ou tout espace accessible en ligne.
Le créateur peut aussi être poursuivi sur d’autres fondements selon le dossier : atteinte à la vie privée, usurpation d’identité, harcèlement, menace, chantage, extorsion, diffusion de contenu intime sans consentement ou infraction liée aux mineurs lorsque la personne représentée est mineure.
Le point décisif est la preuve. Les enquêteurs rechercheront l’origine du prompt, les comptes utilisés, les historiques de publication, les conversations préparatoires, les adresses de connexion, les paiements éventuels et les relais de diffusion.
Que risque celui qui partage le deepfake dans un groupe privé ?
Beaucoup de dossiers commencent par une phrase de défense : « Je n’ai pas créé l’image, je l’ai seulement envoyée. » Cette explication ne suffit pas.
L’article 226-8-1 vise le fait de porter le contenu à la connaissance du public ou d’un tiers. Le partage dans une conversation privée, un groupe WhatsApp, Telegram, Discord ou Snapchat peut donc poser un risque pénal, même si la personne n’est pas l’auteur initial du montage.
Le risque augmente lorsque le partage s’accompagne de commentaires humiliants, de menaces, d’un appel à relayer, d’un chantage ou d’une répétition. Dans ce cas, le dossier peut basculer vers le cyberharcèlement ou vers d’autres qualifications.
Le bon réflexe, si vous recevez un deepfake sexuel concernant une personne identifiable, est de ne pas le renvoyer. Ne le publiez pas « pour dénoncer ». Ne l’envoyez pas à des proches « pour prévenir ». Préservez plutôt les éléments utiles : captures de l’écran de conversation, date, heure, pseudo, URL, identifiant du groupe, puis signalez le contenu par les canaux adaptés.
Et la plateforme : retrait, hébergeur, données d’identification
L’affaire Grok montre que la question ne se limite pas à l’auteur individuel. Une plateforme peut être interrogée sur ses mécanismes de modération, ses outils de détection, ses réponses aux signalements et sa coopération avec les autorités.
Pour la victime, la priorité reste opérationnelle. Il faut demander le retrait du contenu auprès de la plateforme, effectuer un signalement lorsque le contenu est manifestement illicite, puis conserver une trace de toutes les démarches : accusé de réception, numéro de signalement, réponse automatique, refus de retrait, absence de réponse.
Si l’auteur est anonyme, l’avocat peut envisager une stratégie probatoire pour identifier les comptes, préserver les preuves et articuler la plainte avec les demandes utiles aux plateformes ou aux hébergeurs. L’objectif n’est pas seulement de supprimer une publication. Il est aussi d’éviter la réplication, de documenter le préjudice et de préparer une action pénale lisible.
Victime d’un deepfake sexuel : les preuves à réunir sans diffuser
La victime doit agir vite, mais sans alimenter la circulation du contenu.
Conservez les URL exactes. Faites des captures d’écran montrant la date, le compte diffuseur, la plateforme et le contexte. Lorsque le contenu est une vidéo, notez l’adresse de la page, l’identifiant du compte, les commentaires et le nombre de vues si l’information apparaît. Si le contenu disparaît, ces éléments peuvent devenir déterminants.
Ne téléchargez pas et ne stockez pas inutilement des contenus concernant un mineur. Lorsque la situation implique un mineur, il faut privilégier le signalement immédiat aux autorités et demander conseil avant toute manipulation du fichier. L’objectif est de préserver la preuve sans conserver ou redistribuer un contenu illicite.
La CNIL recommande de conserver les preuves, notamment les captures d’écran et les liens, puis de déposer plainte si l’hypertrucage porte atteinte à la réputation ou sert à commettre une infraction. Le portail Ma Sécurité oriente également les victimes d’infractions en ligne vers les bons guichets de signalement, de tchat et de plainte.
Mis en cause pour un deepfake : que faire avant l’audition ?
Une convocation peut arriver après un signalement de plateforme, une plainte de la victime, un signalement PHAROS, ou une enquête plus large visant un groupe de discussion. Il ne faut pas improviser.
Avant l’audition, il faut identifier précisément ce qui vous est reproché : création du contenu, partage, commentaire, administration d’un groupe, refus de retrait, chantage ou participation à une boucle de harcèlement. Les enjeux ne sont pas les mêmes.
Il faut aussi éviter les gestes qui aggravent la situation : supprimer brutalement des comptes, contacter la victime, demander à des amis d’effacer leurs messages, publier des excuses publiques maladroites ou relayer à nouveau le contenu pour « expliquer ». Ces comportements peuvent être mal interprétés et compliquer la défense.
L’avocat peut préparer une chronologie courte : date de réception, date d’envoi, nombre de personnes dans le groupe, connaissance ou non du caractère artificiel, réactions après signalement, absence ou présence d’un consentement, retrait volontaire, excuses privées, conservation des échanges. Cette chronologie permet de discuter la qualification pénale, l’intention, l’étendue de la diffusion et les réparations possibles.
Pour les dossiers qui commencent par une garde à vue, la page du cabinet sur la garde à vue en droit pénal rappelle les droits essentiels dès les premières heures. Pour les faits impliquant un mineur victime, la page relative au mineur victime d’infraction permet de replacer la procédure dans un cadre pénal adapté.
Paris et Île-de-France : pourquoi l’enjeu local compte
À Paris et en Île-de-France, les dossiers de deepfake sexuel peuvent impliquer plusieurs services : commissariat, brigade de gendarmerie, parquet territorialement compétent, services spécialisés en cybercriminalité, tribunal judiciaire de Paris lorsque le dossier touche des plateformes, des contenus massifs ou des investigations numériques complexes.
Le lieu du domicile de la victime, le lieu de découverte du contenu, le lieu de résidence du mis en cause et le siège de certains intermédiaires peuvent influencer le chemin procédural. Pour un dossier urgent, il faut surtout éviter de perdre du temps dans le mauvais guichet. Une plainte structurée, accompagnée des URL, captures et éléments d’identification, est plus exploitable qu’un récit général sans preuves.
Le cabinet intervient à Paris et en Île-de-France pour les dossiers de deepfake sexuel, cyberharcèlement, atteinte à la vie privée, chantage, menace, usurpation d’identité et défense en audition ou garde à vue.
Sources juridiques utiles
Les textes et ressources à consulter en priorité sont les suivants :
- article 226-8 du Code pénal, relatif aux montages et contenus générés par traitement algorithmique ;
- article 226-8-1 du Code pénal, relatif aux montages ou contenus sexuels générés sans consentement ;
- fiche CNIL sur l’hypertrucage et les signalements ;
- fiche Service-Public sur le cyberharcèlement ;
- orientation Ma Sécurité pour les infractions commises sur internet ;
- focus du ministère de la Justice sur les manipulations de l’information.
Ce qu’il faut retenir
Un deepfake sexuel généré par IA peut engager la responsabilité pénale de celui qui le diffuse, même s’il n’en est pas le créateur. Le partage dans un groupe privé n’est pas sans risque. La plateforme peut aussi devenir un point central du dossier lorsque les signalements restent sans effet ou lorsque les contenus circulent massivement.
Pour la victime, l’urgence est de conserver les preuves sans rediffuser le contenu, de signaler, puis de déposer plainte de manière structurée. Pour le mis en cause, l’urgence est de comprendre la qualification exacte avant toute audition.
Besoin d’un avis rapide sur votre dossier.
Vous êtes victime d’un deepfake sexuel, ou vous êtes convoqué après la diffusion d’une image générée par IA.
Le cabinet peut organiser une consultation téléphonique en 48 heures avec un avocat du cabinet.
Appelez le 06 89 11 34 45 ou utilisez la page contact du cabinet. Le cabinet intervient à Paris et en Île-de-France en droit pénal.