Proposition de résolution, relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique
a Convention des Nations unies relative aux droits de l’enfant de 1989 reconnaît le droit de l’enfant à être protégé contre toute forme de violence, tandis que la Charte des droits fondamentaux de l’Union européenne garantit aux enfants le droit à la protection et aux soins nécessaires à leur bien‑être. En 2021, le Comité des droits de l’enfant des Nations unies a précisé que ces droits s’appliquent pleinement dans les environnements numériques et doivent y être effectivement garantis.
Pourtant, actuellement, un enfant sur cinq serait victime de violences sexuelles en ligne ou hors ligne, selon le Conseil de l’Europe. Les données d’Europol dressent en parallèle un constat alarmant : plus de 85 millions d’images et vidéos à caractère pédopornographique circulent chaque année sur internet. En dix ans, ces contenus ont augmenté de 6 000 % au niveau mondial et l’Europe est devenue le principal fournisseur : plus de 60 % des contenus pédocriminels mondiaux y sont hébergés (déclarations officielles de l’ancienne Commissaire européenne aux Affaires intérieures, Ylva Johansson, en mai 2022).
À ce jour, l’Union européenne dépend toujours d’autres pays pour lancer des enquêtes sur les abus commis sur son territoire. La détection et le signalement des abus sexuels sur enfants en ligne dans l’Union européenne reposent en grande partie sur le National Center for Missing and Exploited Children (NCMEC), basé aux États‑Unis. En vertu de la législation américaine, les fournisseurs de services numériques ont l’obligation de transmettre les signalements à ce centre, et non directement aux autorités compétentes européennes. L’Union européenne ne dispose d’aucun organisme centralisé équivalent pour recueillir ces signalements.
En mars 2024, une enquête journalistique inédite (Arte, « Pédocriminalité, les failles d’Instagram », V.Poulet/M.Petit) révèle que le fonctionnement de l’algorithme du réseau social Instagram (groupe Meta) favoriserait les activités pédocriminelles. En s’appuyant sur une analyse minutieuse de milliers de comptes Instagram et sur le témoignage d’experts, cette enquête expose sans ambiguïtés les failles criantes de la plateforme en la matière.
Il est indéniablement nécessaire d’instaurer une obligation à l’échelle européenne pour que les plateformes détectent, signalent et suppriment les contenus pédopornographiques en ligne. Aujourd’hui, ces plateformes peuvent le faire, mais seulement de manière volontaire.
Afin de sécuriser les actions volontaires des fournisseurs, l’Union européenne a adopté en 2021 (Règlement (UE) 2021/1232 du Parlement européen et du Conseil du 14 juillet 2021) une réglementation dérogeant temporairement (jusqu’en août 2024) aux dispositions de la directive « vie privée et communications électroniques ». Cette dérogation permet aux fournisseurs de détecter et de signaler tout abus sexuel commis contre un enfant en ligne, et de bloquer le compte de l’utilisateur concerné ou de suspendre son accès au service.
Dès lors, en premier lieu, pour pérenniser cette dérogation, le 11 mai 2022 (COM(2022) 209 final), la Commission européenne a fait une proposition initiale de règlement visant à instaurer un cadre législatif permanent pour lutter contre les abus sexuels sur les enfants en ligne.
Le 22 novembre 2023, le Parlement européen a adopté sa position sur cette proposition de règlement (référence : A9‑0364/2023), sur la base du rapport de la Commission des libertés civiles, de la justice et des affaires intérieures (LIBE). Ce vote a permis de valider le mandat du Parlement en vue de l’ouverture des négociations interinstitutionnelles avec le Conseil.
La position adoptée souligne notamment la nécessité de créer un Centre européen pour la prévention et la lutte contre les abus sexuels sur enfants, chargé de coordonner les efforts des États membres, de recevoir et de centraliser les signalements. L’Union européenne pourrait ainsi maintenir une base de données sur son territoire. De même, ce centre faciliterait la coopération globale dans la lutte contre ces crimes en étroite collaboration avec Europol et les autorités nationales de protection de l’enfance. Ceci réduirait considérablement le temps consacré au recensement et au filtrage des signalements. Il s’agit d’un problème conséquent compte tenu du nombre colossal de signalements reçus.
Cependant, en dépit de l’urgence, le Conseil de l’Union européenne n’a pas encore trouvé d’accord sur le règlement et les négociations sont à l’arrêt. Par conséquent, les institutions européennes, dans leur trilogue, ne sont toujours pas parvenues à un texte définitif. Il est impératif que le Conseil et le Parlement européen parviennent rapidement à un consensus pour garantir une protection efficace et durable de nos enfants contre les menaces en ligne.
Face à cette impasse, la mesure temporaire autorisant les fournisseurs de services de communication à détecter et à signaler volontairement les contenus pédopornographiques a été prorogée jusqu’au 3 avril 2026.
Néanmoins, cette prolongation souligne l’urgence d’établir une solution législative pérenne, car les mesures transitoires ne peuvent indéfiniment combler le vide juridique existant.
Les préoccupations légitimes concernant d’éventuelles atteintes disproportionnées au droit au respect de la vie privée appellent à la mise en place de mécanismes de contrôle rigoureux et proportionnés, garantissant un encadrement strict de tout accès aux communications chiffrées dans le cadre de la lutte contre les abus sexuels sur mineurs en ligne.
En second lieu, dans son projet de refonte de la directive 2011/93/UE, le Parlement européen a proposé le 12 mai 2025 des amendements (PE766.593 et PE766.594) pour renforcer les sanctions contre les abus sexuels sur les enfants. Le 17 juin 2025, il a validé la révision de cette directive avec 599 voix pour, 12 contre et 8 abstentions en session plénière à Strasbourg. Ce vote constitue une avancée majeure vers une législation plus adaptée aux défis des nouvelles technologies. Pour adapter le droit de l’Union européenne dans ce contexte, les eurodéputés souhaitent notamment incriminer spécifiquement l’usage de systèmes d’intelligence artificielle principalement conçus ou modifiés pour commettre des abus sexuels sur mineurs et supprimer le délai de prescription pour les infractions visées.
Enfin, l’actualité récente tant en France qu’en Allemagne démontre l’urgence de solutions pérennes. En avril 2025, les autorités allemandes ont démantelé « KidFlix », une plateforme pédopornographique sur le darknet comptant 1,8 million d’utilisateurs. L’opération, impliquant 38 pays, a conduit à l’arrestation de 79 personnes et à la protection de 39 enfants victimes d’abus sexuels. Presque simultanément, en mai 2025, une opération coordonnée par l’Office central pour la répression des violences aux personnes (OCRVP) a conduit à l’interpellation de 55 individus en France, tous impliqués dans un réseau de pédocriminalité actif sur l’application Telegram.
Dans ces deux affaires, les enquêteurs ont révélé que les membres du réseau utilisaient des messageries chiffrées pour diffuser du matériel pédopornographique, coordonner leurs activités et échapper à la surveillance des autorités, illustrant une nouvelle fois le rôle central de ces outils dans l’organisation et la perpétuation des abus en ligne.
Le 1er août 2024, le règlement européen sur l’intelligence artificielle est entré en vigueur (Règlement (UE) 2024/1689 du PE et du Conseil du 13 juin 2024). Il s’agit de la première réglementation mondiale encadrant l’intelligence artificielle (IA) visant à garantir que le développement de l’IA respecte les droits fondamentaux tout en favorisant l’innovation. Ce règlement ambitieux démontre la capacité de l’Union européenne à légiférer sur des sujets complexes en trouvant un équilibre entre sécurité et droits fondamentaux.
De même, cette capacité avait été mise en lumière en 2017 par le Règlement (UE) 2017/1939, sur la base de l’article 86 du Traité sur le fonctionnement de l’UE (TFUE) lorsque plusieurs États membres ont voté pour la création du Parquet européen via la procédure de coopération renforcée. Jusqu’alors les autorités nationales étaient seules compétentes pour engager des poursuites contre la fraude portant atteinte aux intérêts financiers de l’Union européenne.
Depuis son entrée en fonctions le 1er juin 2021, le Parquet européen a permis l’harmonisation des sanctions, nonobstant la compétence pénale des États membres. Loin de remettre en cause leur souveraineté, la création de cette institution s’est posée en réponse aux insuffisances de coopération pénale.
La dimension cyber du phénomène multiplie de manière exponentielle les opportunités de sévir pour les pédocriminels et met à l’épreuve l’ensemble des États membres face aux géants du numérique. Se pose alors légitimement la question d’étendre les compétences du Parquet européen afin qu’il enquête sur les crimes pédocriminels en ligne qui revêtent une dimension transfrontalière et financière évidente. Cet élargissement spécialisé remédierait au morcellement de l’espace pénal européen dans la lutte contre la cyberpédocriminalité.
Les récents événements rappelés prouvent qu’il est impératif d’adopter une approche semblable, dans la culture du compromis et la coopération renforcée pour enfin réprimer efficacement les agissements de la communauté pédocriminelle.
Malgré l’ampleur du phénomène, les réticences exprimées par certains pays membres freinent irrémédiablement la production d’actes législatifs ambitieux en la matière. Pendant ce temps, les technologies évoluent sans cesse et renforcent chaque jour les menaces qui pèsent sur les mineurs.
Près de deux ans après l’adoption par notre Assemblée de la résolution européenne n° 1395 portée par notre collègue Perrine Goulet, relative à la proposition de règlement établissant des règles en vue de prévenir et de combattre les abus sexuels sur les enfants, force est de constater que les volontés exprimées alors n’ont pas été suivies d’effets significatifs et que les enjeux identifiés demeurent largement irrésolus.
Le 3 avril 2026, la législation de l’Union européenne permettant aux fournisseurs de services de continuer à détecter et à signaler volontairement les abus sexuels commis contre des enfants en ligne et à supprimer le matériel pédopornographique expirera.
Il est donc urgent d’agir rapidement.
C’est pourquoi la Commission des Affaires européennes doit alerter le Gouvernement sur la priorité que représente le déblocage institutionnel européen sans lequel la lutte contre la pédocriminalité en France ne pourra pas faire face aux défis numériques.
C’est dans ce contexte, marqué par l’urgence d’une réponse coordonnée et ambitieuse, que s’inscrit la présente proposition de résolution.
Pour prendre connaissance du dossier législatif