Accueil > Communications électroniques > Vademecum des moyens de droit pour lutter contre la diffusion en ligne d'hypertrucages visuels ou sonores générés par un traitement algorithmique, communément appelés deepfakes - Communications électroniques
Communication numérique
/ Décryptages
27/11/2025
Vademecum des moyens de droit pour lutter contre la diffusion en ligne d'hypertrucages visuels ou sonores générés par un traitement algorithmique, communément appelés deepfakes
Le présent article propose un premier décryptage à destination des praticiens du droit sur les fondements et les actions ouvertes en France pour faire retirer un deepfake diffusé par l'intermédiaire d'un service de communication publique en ligne, engager la responsabilité des différents acteurs concernés et obtenir réparation.
Mars 2025, douze collégiennes de Saint-Hilaire-du-Harcouët(1), bourgade de 5 735 habitants en Normandie, ont été victimes de montages vidéo à caractère sexuel générés par un outil d'intelligence artificielle (IA), leurs visages ayant été intégrés à des images pornographiques et diffusés sur le réseau social Instagram. Le suspect de vingt ans, rapidement identifié par les services d'enquête, a été condamné par le Tribunal correctionnel de Coutances à une peine ...
Claire POIRSON
Avocate et fondatrice du cabinet Firsh
Marie SIROP
Élève avocate/juriste, cabinet Firsh
27 novembre 2025 - Légipresse N°441
7040 mots
Veuillez patienter, votre requête est en cours de traitement...
(1) Le laboratoire d'innovation du cabinet Firsh dédié au numérique responsable étudie chaque année le régime juridique des deepfakes en collaboration avec un comité d'experts juridiques et techniques internationaux, et émet à l'issue de l'étude des recommandations à destination des praticiens du droit, des personnes concernées (physiques et entreprises) et des pouvoirs publics.
(2) TJ Coutances, ch. corr., 14 mai 2025, n° 25127000037.
(3) Livre Blanc, Démêler le vrai du faux, à l’ère des deepfakes : est-ce encore possible ? Comment lutter contre les deepfakes ?, Laboratoire Firsh, 1re et 2e éd., 2025.
(4) CS(OS) 465/2025, High Court of Delhi, 18 juill. 2025. Les mesures prononcées sont les suivantes : une injonction provisoire contre les défendeurs identifiés (comptes de réseaux sociaux et sites pornographiques), leur interdisant toute publication ou diffusion des contenus litigieux ; l'obligation pour X Corp. (Twitter) et Meta Platforms Inc. (Facebook et Instagram) de retirer immédiatement les URL en cause ; l'obligation pour Google LLC de désindexer ces contenus des résultats de recherche ; un ordre à l'État de bloquer l'accès aux sites tiers concernés et d'ordonner aux fournisseurs d'accès à internet de bloquer les pages web incriminées ; l'obligation pour X Corp. et Meta Platforms Inc. de communiquer les informations d'identification des utilisateurs à l'origine de la diffusion des contenus ; enfin, une mesure de confidentialité consistant en la suppression du nom et des coordonnées de la demanderesse dans les registres publics.
(5) Règl. (UE) 2024/1689, art. 3, § 60.
(6) L'art. 226-8 c. pén. vise le « montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention ». V., E. Raschel, Retour sur les principales dispositions répressives de la loi SREN : deepfake et bannissement numérique, Légipresse 2025. 21. Le champ d'application étroit de cet articile a été critiqué par la doctrine, A. Guedj, L'apport de la Loi SREN en matière de deepfake : une obsolescence annoncée ?, Dalloz IP/IT 2024. 391 ; N. Mallet-Poujol, Droit des communications électroniques (2e partie), Légipresse 2025. 300.
(7) Selon la dernière étude, 96 % des deepfakes à caractère pornographique concernent les femmes, tous pays confondus. Will Hawkins, Chris Russell, Brent Mittelstadt, Deepfakes on Demand: the rise of accessible non-consensual deepfake image generators, FAccT’25: Proceedigs of the 2024 ACM Conference on Fairness, Accountability and Transparency, mai 2025.
(8) Sont exclus de la présente étude les obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d'IA posées par le RIA dont le manquement entraîne des sanctions administratives et financières et non le retrait du deepfake.
(9) C. pén., art. 226-8 : « Est puni d'un an d'emprisonnement et de 15 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention. / Ces peines sont portées à deux ans d'emprisonnement et à 45 000 euros d'amende lorsque les délits prévus au présent article ont été réalisés en utilisant un service de communication au public en ligne. / Lorsque les délits prévus au présent article sont commis par la voie de la presse écrite ou audiovisuelle, les dispositions particulières des lois qui régissent ces matières sont applicables en ce qui concerne la détermination des personnes responsables ».
(10) L’art. 226-8 codifié par la loi n° 92-684 du 22 juill. 1992 a été modifié par la loi n° 2024-449 du 21 mai 2024.
(11) A. Guedj, L'apport de la Loi SREN en matière de deepfake : une obsolescence annoncée ?, préc.
(12) « Est puni de deux ans d'emprisonnement et de 60 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l'image d'une personne, sans son consentement. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore à caractère sexuel généré par un traitement algorithmique et reproduisant l'image ou les paroles d'une personne, sans son consentement. / Lorsque le délit prévu au premier alinéa est commis par la voie de la presse écrite ou audiovisuelle, les dispositions particulières des lois qui régissent ces matières sont applicables en ce qui concerne la détermination des personnes responsables. / Les peines prévues au même premier alinéa sont portées à trois ans d'emprisonnement et à 75 000 euros d'amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne ».
(13) « Les diverses infractions d'atteinte à la vie privée ou d'atteinte à la représentation de la personne ne permettent pas de pénaliser efficacement la publication d'images ou de vidéos hypertruquées à caractère sexuel » (rapport Ass. nat. n° 1674 visant à sécuriser et réguler l'espace numérique, 21 sept. 2023, art. 5 ter : création d'un délit de publication d'hypertrucage [deepfake] à caractère sexuel).
(14) Le cyberharcèlement n'est pas un délit spécifique, il entre dans l'infraction de harcèlement moral aggravé visé par l'art. 222-33-2-2 c. pén.
(15) Crim. 29 mai 2024, n° 23-80.806. Un internaute, bien qu'ayant publié un seul message, a été condamné par la cour d'appel pour harcèlement en ligne. La victime faisait déjà l'objet d'un très grand nombre de messages d'injures et de menaces à la suite de ses prises de position, et l'intéressé, en utilisant le hashtag sur le réseau social X, ne pouvait ignorer qu'il contribuait à ce flux massif. Les juges ont considéré que son intervention s'inscrivait délibérément dans un « effet de meute » visant à amplifier la visibilité de propos haineux, ce qui avait pour conséquence une détérioration des conditions de vie de la victime. La Cour de cassation a confirmé cette analyse, jugeant que l'infraction de harcèlement était constituée, même si le prévenu n'avait lui-même rédigé qu'un seul message, Légipresse 2024. 336 et les obs. ; ibid. 431, comm. D. Pamart ; ibid. 2025. 300, étude N. Mallet-Poujol D. 2024. 1020 ; AJ pénal 2024. 396, obs. T. Besse.
(16) Civ. 1re, 21 mars 2018, n° 16-28.741, Légipresse 2018. 194 et les obs. ; D. 2018. 670 ; ibid. 2039, chron. C. Barel, S. Canas, V. Le Gall, I. Kloda, S. Vitse, S. Gargoullaud, R. Le Cotty, J. Mouty-Tardieu et C. Roth ; ibid. 2019. 216, obs. E. Dreyer ; Dalloz IP/IT 2018. 380, obs. E. Dreyer ; RTD civ. 2018. 362, obs. D. Mazeaud.
(17) Règl. (UE) 2022/2026, art. 22. La liste des signaleurs de confiance désignés par l'ARCOM, mise à jour régulièrement, comptait, au 18 août 2025 : e-Enfance (protection des mineurs) ; ALPA (prévention et lutte contre la piraterie audiovisuelle) ; IFAW (préservation des espèces sauvages et lutte contre la cybercriminalité liée à ces espèces) ; INDECOSA-CGT (information et défense des consommateurs ; salariés) ; Point de contact (lutte contre les cyberviolences et protection des victimes dans l'espace numérique) ; Addictions France (prévention, formation, soin et réduction des risques des addictions et leurs conséquences) ; CRIF (lutte contre l'antisémitisme et le racisme) ; LICRA (lutte contre le racisme et l'antisémitisme).
(18) Règl. (UE) 2022/2026, art. 9.
(19) Arr. du 16 juin 2009 portant création d'un système dénommé PHAROS (plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements), art. 1er.
(20) Décr. n° 2015-125 du 5 févr. 2015 relatif au blocage des sites provoquant à des actes de terrorisme ou en faisant l'apologie et des sites diffusant des images et représentations de mineurs à caractère pornographique.
(21) Loi SREN, art. 5.
(22) C. pén., art. 222-1, 421-2-5 et 227-23, sur le fondement de l'art. 6-1 LCEN.
(23) C. pr. pén., art. 5-1 : « Même si le demandeur s'est constitué partie civile devant la juridiction répressive, la juridiction civile, saisie en référé, demeure compétente pour ordonner toutes mesures provisoires relatives aux faits qui sont l'objet des poursuites, lorsque l'existence de l'obligation n'est pas sérieusement contestable. »
(24) Par ex., TJ Paris, réf., 2 avr. 2024, n° 24/51659, Légipresse 2024. 209 et les obs. ; ibid. 2025. 121, obs. N. Verly ; ibid. 300, étude N. Mallet-Poujol ; contra, TJ Paris, réf, 19 mars 2025, n° 24/58239.
(25) Paris, pôle 2 - 7e ch., 31 mai 2023, n° 22/09327.
(26) Civ. 1re, 26 févr. 2025, n° 23-22.386, Légipresse 2025. 135 et les obs. ; ibid. 278, comm. N. Verly ; ibid. 300, étude N. Mallet-Poujol ; D. 2025. 444.
(27) Loi n° 2021-998 du 30 juill. 2021 relative à la prévention d'actes de terrorisme et au renseignement.
(29) Loi n° 2018-1202 du 22 déc. 2018 relative à la lutte contre la manipulation de l'information.
(30) TJ Paris, réf., 17 mai 2019, n° 19/53935, Légipresse 2019. 255 et les obs. ; ibid. 304, étude B. Ader ; ibid. 2020. 127, chron. E. Tordjman, G. Rialan et T. Beau de Loménie ; ibid. 193, étude N. Verly.
(31) Civ. 1re, 19 juin 2008, n° 07-15.430, D. 2008. 1906, obs. S. Lavric ; TJ Paris, 8 juill. 2022, n° 22/53972, Légipresse 2022. 401 et les obs. ; ibid. 481, étude E. Dreyer ; ibid. 2023. 241, étude N. Mallet-Poujol ; TJ Paris, 30 oct. 2024, n° 24/56090, Légipresse 2024. 653 et les obs. ; ibid. 2025. 249, obs. N. Mallet-Poujol ; ibid. 300, étude N. Mallet-Poujol. La Cour d'appel de Paris (pôle 1 - 8e ch., 22 mars 2023, n° 18/17) s'était également prononcée dans le même sens. Contra, TJ Lyon, 13 nov. 2023, n° 23/00640. V. C. Bigot, La procédure accélérée au fond prévue par l'article 6-I-8 de la LCEN : un risque de déstabilisation profonde des fragiles équilibres du droit de la presse, Légipresse 2023. 601.
(32) Loi n° 78-17, Informatique et libertés, art. 6, 20 et 124-5.