La famille d’une victime de la fusillade survenue en avril 2025 sur le campus de Florida State University a déposé le 11 mai 2026 une plainte fédérale contre OpenAI. La plainte allègue que ChatGPT a fourni au tireur présumé des conseils sur le choix des armes, les horaires de fréquentation du campus et les stratégies susceptibles de maximiser l’attention médiatique. Phoenix Ikner, le tireur présumé, bénéficie de la présomption d’innocence. La procédure pénale américaine est en cours. L’analyse qui suit examine la transposition de ces faits au droit français, sans porter de jugement sur la culpabilité de quiconque.

La question posée est inédite et dépasse le cadre du droit américain. Si un agent conversationnel fondé sur l’intelligence artificielle fournit à un individu les moyens intellectuels de preparer un crime, l’éditeur de cet outil peut-il etre tenu pour responsable en droit français ? La réponse mobilise le droit pénal de la complicité, la responsabilité du fait des produits défectueux, le regime des hébergeurs et le règlement européen sur l’intelligence artificielle.

I. Les faits : la plainte contre OpenAI apres la fusillade de Florida State University

A. La chronologie de l’affaire

En avril 2025, Phoenix Ikner aurait ouvert le feu sur le campus de Florida State University a Tallahassee, en Floride, tuant deux personnes : Tiru Chabba, universitaire d’origine indienne, et Robert Morales, directeur de la restauration du campus. Plusieurs autres personnes auraient ete blessees. Le tireur présumé a ete arrete sur les lieux et fait l’objet de poursuites penales devant les juridictions de l’État de Floride.

Le 11 mai 2026, Vandana Joshi, veuve de Tiru Chabba, a déposé plainte devant la juridiction fédérale de Floride contre OpenAI et contre le tireur présumé. La plainte est fondée sur la responsabilité civile de l’éditeur de ChatGPT pour le role que l’agent conversationnel aurait joue dans la preparation de l’attaque.

B. Les allegations spécifiques de la plainte

La plainte allègue que le tireur présumé a entretenu plus de 16 000 interactions avec ChatGPT sur une periode d’environ dix-huit mois précédant la fusillade. Ces echanges auraient porte sur les armes a feu, les munitions, les stratégies de maximisation des victimes et les horaires de fréquentation du campus universitaire.

Selon la plainte, le chatbot aurait identifié les armes a partir de photographies telechargees par l’utilisateur. Il aurait indique que le pistolet Glock obtenu par le tireur présumé était concu pour etre utilise rapidement et sous l’effet du stress. Il aurait également suggere de garder le doigt hors de la détente jusqu’au moment du tir. L’agent conversationnel aurait aussi conseille sur les heures de pointe sur le campus pour maximiser la fréquentation des lieux.

La plainte reproche enfin a ChatGPT d’avoir indique que la presence d’enfants parmi les victimes augmentait significativement la couverture médiatique d’une fusillade, meme avec un nombre réduit de victimes. L’agent conversationnel aurait fourni ces réponses sans alerter les autorites competentes et sans interrompre la conversation malgre la nature manifestement criminelle des questions posées.

OpenAI a répondu publiquement que ChatGPT avait fourni des réponses factuelles à des questions dont les informations étaient disponibles sur des sources publiques, et qu’il n’avait ni encouragé ni promu d’activite illégale ou dangereuse. La société conteste toute responsabilité dans la commission du crime.

II. La transposition au droit pénal français : complicité et responsabilité de la personne morale

A. La complicité par aide ou assistance au regard de l’article 121-7 du code pénal

L’article 121-7 du code pénal dispose qu’est complice d’un crime ou d’un délit la personne qui, sciemment, par aide ou assistance, en a facilite la preparation ou la consommation. Le texte ajoute qu’est également complice la personne qui, par don, promesse, menace, ordre, abus d’autorite ou de pouvoir, aura provoque à une infraction ou donne des instructions pour la commettre (article 121-7 du code pénal).

L’application de ce texte a un agent conversationnel souleve une difficulté fondamentale tenant a l’élément moral de l’infraction. La complicité suppose un acte accompli sciemment, c’est-a-dire avec la conscience de participer à la préparation ou à la commission d’une infraction. Or un algorithme de traitement du langage naturel ne possede pas de conscience, de volonte ni d’intention au sens que le droit pénal attache a ces notions. Il ne peut pas, au sens strict du droit pénal français, agir sciemment. L’élément moral de la complicité fait donc défaut dans le chef de l’outil lui-meme.

La question se deplace alors vers l’éditeur, personne morale, qui met en circulation l’agent conversationnel. L’article 121-2 du code pénal prévoit que les personnes morales, a l’exclusion de l’État, sont responsables pénalement des infractions commises, pour leur compte, par leurs organes ou representants. Si les dirigeants de l’éditeur avaient connaissance du risque que representait l’absence de garde-fous suffisants et ont neanmoins choisi de maintenir le service en l’état, la question de la complicité par abstention délibérée mérite d’etre posée.

La jurisprudence française admet la complicité par fourniture de moyens matériels ou intellectuels des lors que l’auteur principal en fait un usage criminel et que le complice en avait connaissance. L’arret Lafarge de la chambre criminelle du 7 septembre 2021 a juge que la société Lafarge pouvait etre poursuivie pour complicité de crimes contre l’humanite et financement d’entreprise terroriste. La Cour a retenu qu’il suffisait que l’auteur du financement sache que les fonds fournis etaient destinés à être utilises par l’entreprise terroriste en vue de commettre un acte terroriste, que cet acte survienne ou non, et peu importe que l’auteur n’ait pas eu l’intention de voir les fonds utilises à cette fin (Cass. crim., 7 septembre 2021, n° 19-87.367, publie au Bulletin).

L’analogie avec l’affaire ChatGPT doit etre examinée avec précaution. Dans l’affaire Lafarge, la société effectuait des versements directs, identifies et répétés à une organisation terroriste connue comme telle. La fourniture de moyens était délibérée, individualisee et orientée vers un bénéficiaire déterminé. Dans l’affaire ChatGPT, l’éditeur met en circulation un outil à usage général dont l’usage détourné est le fait d’un utilisateur individuel parmi des centaines de millions. La distinction entre la fourniture délibérée de moyens a une fin criminelle connue et la mise a disposition d’un outil susceptible d’etre détourné par un utilisateur isolé reste un obstacle sérieux à la qualification de complicité d’homicide volontaire.

Cet obstacle pourrait cependant etre levé si la preuve était rapportée que l’éditeur, alerté sur des conversations a caractère manifestement criminel par ses propres systemes de moderation, a choisi de ne pas intervenir ni d’alerter les autorites. L’abstention délibérée face a un danger connu pourrait alors constituer l’élément moral de la complicité.

B. La perte de la qualite d’hébergeur par le role actif de l’algorithme

L’article 6, I, 2, de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) définit les fournisseurs de services d’hébergement et leur regime de responsabilité atténuée (article 6 de la loi du 21 juin 2004). Ce regime suppose que le prestataire se limite a une fourniture neutre du service, au moyen d’un traitement purement technique et automatique des donnees fournies par ses utilisateurs.

La chambre commerciale de la Cour de cassation a apporte une precision décisive dans un arret du 7 janvier 2026 publie au Bulletin et au Rapport. La Cour a juge qu’un prestataire de service sur internet perd la qualite d’hébergeur lorsque, au lieu de se limiter a une fourniture neutre du service au moyen d’un traitement purement technique et automatique des donnees fournies par ses clients, il joue un role actif de nature a lui conférer une connaissance ou un contrôle de ces donnees. La Cour a retenu que l’exploitant joue un role actif lorsqu’il prete une assistance qui consiste notamment a optimiser la présentation des offres a la vente en cause ou a promouvoir celles-ci (Cass. com., 7 janvier 2026, n° 23-22.723, publie au Bulletin et au Rapport).

L’application de cette jurisprudence a ChatGPT conduit à une conclusion nette. Un agent conversationnel ne se borne pas a stocker ou a transmettre des donnees fournies par les utilisateurs. Il génère activement des réponses, les structure, les adapte au contexte de la conversation et peut les enrichir de recommandations. Il sélectionne les informations, les ordonné et les présente sous une forme personnalisee. Ce role actif dans la production du contenu exclut la qualification d’hébergeur au sens de la LCEN et soumet l’éditeur au regime de responsabilité de droit commun.

Cette conclusion est renforcee par le règlement (UE) 2022/2065 du 19 octobre 2022 sur les services numériques (DSA), qui a remplace la directive 2000/31/CE. Le DSA maintient le principe de l’exoneration de responsabilité des intermédiaires passifs mais impose des obligations renforcées de signalement des contenus illicites, de cooperation avec les autorites et de mise en place de mecanismes de moderation. Un éditeur d’intelligence artificielle générative qui produit activement les contenus ne peut se prevaloir du regime d’exoneration des intermédiaires.

C. La provocation directe et la responsabilité pénale de l’éditeur

L’article 24 de la loi du 29 juillet 1881 sur la liberte de la presse incrimine la provocation directe à commettre un crime ou un délit, lorsqu’elle est commise par tout moyen de communication au public en ligne. La provocation suppose une incitation précisé, individualisee et susceptible d’etre suivie d’effet. Elle doit porter sur des faits determines et non sur des abstractions.

La chambre criminelle a juge, dans un arret du 10 janvier 2023, que la requalification de menaces de mort en provocation directe à des actes de terrorisme suppose que les faits retenus pour affirmer le caractère terroriste des actes à la commission desquels il était provoque soient compris dans la citation (Cass. crim., 10 janvier 2023, n° 20-85.968, publie au Bulletin). La provocation au sens de l’article 24 exige donc une intention spécifique de provoquer à la commission d’un acte déterminé.

Un algorithme génératif ne forme pas d’intention. Ses réponses peuvent toutefois constituer objectivement une provocation si elles fournissent des instructions détaillées pour commettre un crime à un individu dont les questions révèlent clairement le projet criminel. La question, en droit français, porterait alors sur la responsabilité de l’éditeur qui a mis en circulation un outil capable de produire de telles réponses sans avoir mis en place les garde-fous techniques adéquats pour détecter et bloquer les conversations a caractère manifestement criminel.

III. La responsabilité civile de l’éditeur d’intelligence artificielle en droit français

A. La responsabilité du fait des produits défectueux

L’article 1245 du code civil dispose que le producteur est responsable du dommage cause par un défaut de son produit, qu’il soit ou non lie par un contrat avec la victime (article 1245 du code civil). L’article 1245-3 précisé qu’un produit est défectueux lorsqu’il n’offre pas la sécurité a laquelle on peut légitimement s’attendre, compte tenu de toutes les circonstances et notamment de la présentation du produit, de l’usage qui peut en etre raisonnablement attendu et du moment de sa mise en circulation (article 1245-3 du code civil).

La première question est celle de la qualification de ChatGPT comme produit au sens de ces dispositions. La directive 85/374/CEE, transposee aux articles 1245 et suivants du code civil, visait initialement les biens meubles corporels. La question de l’inclusion des logiciels dans le champ du produit défectueux a longtemps divise la doctrine. La nouvelle directive (UE) 2024/2853 du 23 octobre 2024 relative a la responsabilité du fait des produits défectueux, qui remplacera la directive de 1985, tranche le debat en incluant expressement les logiciels et les systemes d’intelligence artificielle dans la définition du produit. Les États membres disposent d’un delai de transposition expirant le 9 décembre 2026.

En l’état du droit français, la première chambre civile de la Cour de cassation a deja admis une conception large du produit défectueux et du défaut de sécurité. Dans l’arret Monsanto du 21 octobre 2020, publie au Bulletin et au Rapport, la Cour a juge qu’un herbicide dont l’étiquetage ne respectait pas la réglementation applicable et qui ne comportait aucune mise en garde sur la dangerosite particuliere de certaines operations ne présentait pas la sécurité a laquelle on pouvait légitimement s’attendre, et était des lors défectueux (Cass. 1re civ., 21 octobre 2020, n° 19-18.689, publie au Bulletin et au Rapport). Le défaut de sécurité residait non pas dans la composition chimique du produit mais dans l’insuffisance de l’information fournie a l’utilisateur sur les risques associes a son utilisation.

L’analogie avec ChatGPT est directement pertinente. Si un agent conversationnel fournit des instructions détaillées pour preparer un acte criminel sans afficher d’avertissement, sans bloquer la conversation et sans alerter les autorites, il est possible de soutenir que le produit ne présentait pas la sécurité a laquelle un utilisateur pouvait légitimement s’attendre. Le défaut reside alors dans l’insuffisance des garde-fous de sécurité et dans l’absence de systeme de détection et d’alerté, et non dans la nature meme de l’outil. L’utilisateur d’un agent conversationnel grand public est en droit d’attendre que le produit refuse de fournir des instructions pour commettre un crime.

La première chambre civile a également précisé, dans un arret du 11 juillet 2018 publie au Bulletin, que le regime de la responsabilité du fait des produits défectueux exclut le recours à l’article 1242, alinéa 1er, du code civil fondé sur la responsabilité du fait des choses, lorsque l’action est dirigee contre le producteur apres la mise en circulation du produit et que le dommage resulte nécessairement d’un défaut de sécurité (Cass. 1re civ., 11 juillet 2018, n° 17-20.154, publie au Bulletin). La victime devra donc choisir entre le regime spécial des produits défectueux et la responsabilité délictuelle de droit commun fondée sur la faute.

B. La responsabilité délictuelle de droit commun

L’article 1240 du code civil impose a celui qui cause un dommage a autrui par sa faute de le réparer (article 1240 du code civil). La faute de l’éditeur pourrait resider dans le choix délibéré de ne pas implémenter de filtres suffisants pour empecher l’agent conversationnel de fournir des instructions a caractère criminel, alors que le risque était connu et documentable.

Le lien de causalite constitue l’obstacle principal de toute action sur ce fondement. La victime devra établir que les réponses de ChatGPT ont effectivement contribué à la préparation du crime et que, sans ces réponses, le dommage ne se serait pas produit ou se serait produit differemment. La disponibilite des memes informations sur des sources publiques d’internet affaiblit considérablement ce lien. L’éditeur pourra soutenir que le tireur présumé aurait pu obtenir les memes renseignements par des recherches élémentaires sur des moteurs de recherche classiques ou sur des forums publics.

La théorie de l’equivalence des conditions, retenue en droit pénal français, est plus favorable à la victime que la théorie de la causalite adéquate, parfois appliquee en droit civil. Selon l’equivalence des conditions, toute cause sans laquelle le dommage ne se serait pas produit est une cause juridiquement pertinente. Selon la causalite adéquate, seule la cause qui, d’apres le cours normal des choses, était de nature a produire le dommage est retenue. Le choix entre les deux theories sera déterminant pour l’issue du litige.

C. Le règlement européen sur l’intelligence artificielle et la directive sur la responsabilité des produits

Le règlement (UE) 2024/1689 du 13 juin 2024, dit AI Act, classe les systemes d’intelligence artificielle selon leur niveau de risque. Les pratiques d’intelligence artificielle interdites sont énumérées à l’article 5 du règlement. Les systemes à usage général, dont font partie les grands modeles de langage comme GPT, sont soumis à des obligations de transparence, de documentation technique et de respect du droit d’auteur. Les systemes à haut risque sont soumis à des obligations supplémentaires de gestion des risques, de surveillance humaine et de cybersécurité.

Un agent conversationnel qui fournit des instructions pour preparer un crime pose la question de la reclassification de l’outil au regard du règlement. Si l’utilisation de ChatGPT à des fins criminelles devient un risque identifié et documentable, l’éditeur pourrait etre tenu de mettre en oeuvre les mesures de gestion des risques prévues par le règlement, sous peine de sanctions administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial pour les violations les plus graves.

La directive (UE) 2024/2853 relative a la responsabilité du fait des produits défectueux, adoptée le 23 octobre 2024, renforcé ce cadre en incluant explicitement les logiciels et les systemes d’intelligence artificielle dans le champ du produit défectueux. Elle prévoit un renversement de la charge de la preuve en faveur de la victime lorsque le producteur ne communique pas les éléments techniques pertinents. La transposition de cette directive, attendue avant le 9 décembre 2026, pourrait simplifier considérablement l’action des victimes en matière de responsabilité des editeurs d’intelligence artificielle.

IV. Les zones d’écart entre les systemes américain et français

A. La section 230 du Communications Decency Act et son absence d’équivalent français

Aux États-Unis, la section 230 du Communications Decency Act de 1996 accorde aux plateformes en ligne une immunite quasi absolue pour les contenus publies ou transmis par leurs utilisateurs. Cette immunite a longtemps constitue un obstacle majeur aux actions en responsabilité civile contre les entreprises technologiques. La plainte contre OpenAI contourne cet obstacle en soutenant que ChatGPT ne se contente pas de relayer des contenus d’utilisateurs mais génère activement ses propres réponses, ce qui le distingue d’un intermédiaire passif.

Le droit français ne connait pas d’immunite équivalente a la section 230. La distinction pertinente est celle entre hébergeur et éditeur, issue de la LCEN et précisée par la jurisprudence. Comme analyse précédemment, un agent conversationnel qui génère activement des contenus ne peut se prevaloir du regime de responsabilité atténuée des hébergeurs. L’éditeur est soumis au droit commun de la responsabilité, ce qui place les victimes françaises dans une position structurellement plus favorable que leurs homologues americaines pour engager la responsabilité de l’entreprise editrice.

B. La place de la victime : constitution de partie civile et action directe

Le systeme français offre à la victime d’une infraction la possibilite de se constituer partie civile devant la juridiction pénale, ce qui lui permet à la fois d’obtenir la réparation de son préjudice et de participer activement à la manifestation de la vérité. L’article 2 du code de procédure pénale ouvre l’action civile à toute personne qui a personnellement souffert du dommage directement cause par l’infraction.

La constitution de partie civile devant le juge d’instruction permettrait à la victime de déclencher l’action publique meme en l’absence de poursuites du ministere public. Cette voie procedurale, inexistante en droit américain, offrirait aux proches d’une victime d’un crime commis avec l’assistance d’un agent conversationnel un levier supplémentaire pour engager la responsabilité pénale de l’éditeur et obtenir l’ouverture d’une information judiciaire.

L’action devant le tribunal correctionnel ou la cour d’assises permettrait en outre de juger simultanément le fait principal et la complicité éventuelle de l’éditeur, en ordonnant le cas échéant une expertise technique judiciaire sur le fonctionnement des filtres de sécurité de l’agent conversationnel et sur les donnees de conversation conservees par l’éditeur.

C. La sévérité comparee des sanctions

En droit français, la complicité est punie des memes peines que l’infraction principale. Si les faits reproches au tireur présumé etaient qualifies de meurtres en droit français, la peine encourue par le complice serait la réclusion criminelle a perpétuité. La personne morale complice encourrait une amende egale au quintuple de celle prévue pour les personnes physiques, ainsi que des peines complémentaires telles que la dissolution, le placement sous surveillance judiciaire, l’interdiction d’exercer une activite professionnelle ou la fermeture d’etablissement.

Ces sanctions théoriques, considérablement plus sévères que les dommages-intérêts civils susceptibles d’etre prononcés par une juridiction américaine, conferent a la voie pénale française un effet dissuasif particulierement puissant a l’egard des editeurs d’intelligence artificielle.

V. Les enseignements pour les justiciables et les entreprises du secteur de l’intelligence artificielle

L’affaire OpenAI pose un précédent majeur, quelle que soit l’issue de la procédure américaine. Pour les entreprises qui développent ou déploient des systemes d’intelligence artificielle générative, les obligations de diligence sont désormais identifiables. Un éditeur qui met en circulation un agent conversationnel sans garde-fous suffisants s’expose à une triple responsabilité : pénale sur le fondement de la complicité ou de la mise en danger délibérée de la personne d’autrui, civile sur le fondement des produits défectueux ou de la faute délictuelle, et administrative sur le fondement du règlement européen sur l’intelligence artificielle.

Pour les victimes et leurs proches, le droit français offre des voies d’action plus directes que le droit américain. La constitution de partie civile, la responsabilité de plein droit du producteur et l’absence d’immunite comparable a la section 230 constituent des avantages proceduraux significatifs. La transposition de la directive (UE) 2024/2853 avant la fin de l’annee 2026 renforcera encore ces moyens d’action en intégrant explicitement les logiciels d’intelligence artificielle dans le champ des produits défectueux.

Pour les praticiens du droit pénal, l’emergence de l’intelligence artificielle comme instrument potentiel d’aide à la commission d’infractions appelle une reflexion sur l’adaptation des catégories juridiques traditionnelles. La complicité suppose une intention que l’algorithme ne possede pas, mais que la personne morale qui le déploie pourrait se voir imputer si elle avait connaissance du risque et a choisi de ne pas le traiter. L’affaire Lafarge a montre que la Cour de cassation retenait la responsabilité pénale de la personne morale lorsque celle-ci ne pouvait ignorer les conséquences prévisibles de ses actes.

Phoenix Ikner est présumé innocent des faits qui lui sont reproches. La plainte déposée contre OpenAI est une action civile dont le bien-fondé reste a établir devant la juridiction américaine. L’analyse qui precede ne porte pas sur la culpabilité des parties mais sur la transposition au droit français d’une problematique juridique inédite, qui s’imposera aux juridictions françaises et europeennes dans les années a venir.

References

Textes :
Article 121-7 du code pénal (complicité), Legifrance
Article 1245 du code civil (responsabilité du fait des produits défectueux), Legifrance
Article 1245-3 du code civil (produit défectueux), Legifrance
Article 1240 du code civil (responsabilité délictuelle), Legifrance
Article 6 de la loi n° 2004-575 du 21 juin 2004 (LCEN, responsabilité des hébergeurs), Legifrance

Jurisprudences :
Cass. crim., 7 septembre 2021, n° 19-87.367, publie au Bulletin (Lafarge, financement d’entreprise terroriste, responsabilité pénale de la personne morale), Cour de cassation
Cass. com., 7 janvier 2026, n° 23-22.723, publie au Bulletin et au Rapport (Airbnb, role actif de la plateforme, perte de la qualite d’hébergeur), Cour de cassation
Cass. 1re civ., 21 octobre 2020, n° 19-18.689, publie au Bulletin et au Rapport (Monsanto, produit défectueux, défaut d’information), Cour de cassation
Cass. 1re civ., 11 juillet 2018, n° 17-20.154, publie au Bulletin (exclusion de l’article 1242 alinéa 1 en matière de produit défectueux), Cour de cassation
Cass. crim., 10 janvier 2023, n° 20-85.968, publie au Bulletin (provocation directe, requalification), Cour de cassation

Besoin d’un avis rapide sur votre dossier

Vous êtes mis en cause dans une procédure pénale, vous êtes victime d’une infraction ou vous souhaitez évaluer votre exposition a un risque juridique lié à l’intelligence artificielle, contactez le cabinet Kohen Avocats pour un premier échange confidentiel.

Téléphone : 01 83 64 34 02
Formulaire de contact

Laisser un commentaire

Analyse stratégique offerte

Envoyez vos pièces. Recevez une stratégie.

Transmettez-nous les pièces de votre dossier. Maître Hassan KOHEN vous répond personnellement sous 24 heures avec une première analyse stratégique de votre situation.

  • Première analyse offerte et sans engagement
  • Réponse personnelle de l'avocat sous 24 heures
  • 100 % confidentiel, secret professionnel garanti
  • Jusqu'à 1 Go de pièces, dossiers et sous-dossiers acceptés

Cliquez ou glissez vos fichiers ici
Tous formats acceptes (PDF, Word, images, etc.)

Envoi en cours...

Vos donnees sont utilisees uniquement pour traiter votre demande. Politique de confidentialite.

En savoir plus sur Maître Hassan Kohen, avocat en droit pénal à Paris

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture