Selon un rapport récent des Nations Unies, les cas d'abus facilités par la technologie aux États-Unis ont explosé, passant de 4 700 en 2023 à plus de 67 000 en 2024.
Dans un monde où l'intelligence artificielle (IA) révolutionne notre quotidien, une ombre grandissante plane sur les plus vulnérables : les enfants. Des vidéos truquées ultra-réalistes, connues sous le nom de deepfakes, aux manipulations en ligne sophistiquées, l'IA est devenue un outil redoutable pour les prédateurs et les cybercriminels. Selon un rapport récent des Nations Unies, les cas d'abus facilités par la technologie aux États-Unis ont explosé, passant de 4 700 en 2023 à plus de 67 000 en 2024.
Les deepfakes, ces vidéos ou images créées par l'IA pour simuler des situations fictives avec un réalisme bluffant, ne sont plus l'apanage des films de science-fiction. D'après le Parlement européen, leur nombre double tous les six mois, avec une projection de 8 millions de deepfakes partagés en 2025, contre 500 000 en 2023.
Environ 98 % de ces contenus sont pornographiques, et les enfants en sont les premières victimes. Les prédateurs utilisent des photos innocentes postées sur les réseaux sociaux pour générer des images explicites, menant à de nouvelles formes d'extorsion sexuelle, ou "sextortion".
Un exemple concret ? En 2025, un enseignant du Mississippi a été arrêté pour avoir créé des vidéos deepfakes explicites de ses élèves âgées de 14 à 16 ans, en utilisant simplement des images de leurs profils sociaux.
Ces outils, accessibles via des applications mobiles gratuites, exigent désormais peu de compétences techniques, rendant la menace omniprésente. Les enfants, dont les capacités cognitives sont encore en développement, peinent à distinguer le vrai du faux, ce qui les expose davantage au cyberharcèlement et à la désinformation.Sur les réseaux sociaux comme X (anciennement Twitter), des témoignages alarmants circulent. Une mère a partagé une vidéo avertissant les parents après que son fils a été menacé par des images explicites générées par IA à partir de sa photo.
De même, une campagne virale de Deutsche Telekom, "ShareWithCare", met en scène une version adulte IA d'une enfant nommée Ella, alertant sur les risques des photos d'enfance partagées publiquement.
Cosmas Zavazava, directeur du Bureau de développement des télécommunications de l'Union internationale des télécommunications (UIT) – l'une des principales agences ayant élaboré la déclaration, qui comprend des orientations et des recommandations – dresse un inventaire impressionnant des différentes manières dont les enfants sont ciblés. Cela va du harcèlement en ligne aux deepfakes, en passant par l'intégration de fonctionnalités nuisibles, le cyberharcèlement et les contenus inappropriés.
« Nous avons constaté que, pendant la pandémie de coronavirus">COVID-19, de nombreux enfants, en particulier les filles et les jeunes femmes, ont été victimes d'abus en ligne et, dans de nombreux cas, cela a entraîné des préjudices physiques », explique-t-il.
Des organisations de défense des droits de l'enfant signalent que les prédateurs peuvent utiliser l'IA pour analyser le comportement en ligne, l'état émotionnel et les centres d'intérêt d'un enfant afin d'adapter leur stratégie de manipulation.
L'IA permet également aux agresseurs de générer de fausses images explicites d'enfants réels, donnant ainsi naissance à une nouvelle forme d'extorsion sexuelle.
Le Childlight Global Child Safety Institute, un institut mondial indépendant créé pour recueillir les données les plus fiables disponibles sur l'exploitation et les abus sexuels d'enfants, a constaté dans un rapport de 2025 que le nombre de cas d'abus d'enfants facilités par la technologie aux États-Unis est passé de 4 700 en 2023 à plus de 67 000 en 2024.
Ces outils IA génèrent non seulement du matériel d'abus sexuel sur enfants (CSAM) synthétique, mais camouflent aussi des images réelles, compliquant la tâche des forces de l'ordre.Les impacts psychologiques sont dévastateurs : anxiété, dépression, troubles post-traumatiques. Une enquête de Thorn révèle que un adolescent sur 17 a été victime d'abus via deepfakes nudes.
Pire, les enfants eux-mêmes deviennent parfois auteurs, utilisant des apps "nudify" pour harceler leurs pairs.

Fin 2025, l'Australie est devenue le premier pays au monde à interdire les comptes de réseaux sociaux aux enfants de moins de 16 ans, considérant que les risques liés aux contenus qu'ils partagent dépassent largement les avantages potentiels.
Le gouvernement australien s'est appuyé sur un rapport qu'il avait commandé, révélant que près des deux tiers des enfants âgés de 10 à 15 ans avaient été exposés à des contenus haineux, violents ou choquants, et que plus de la moitié avaient subi du cyberharcèlement. La plupart de ces contenus étaient visionnés sur les réseaux sociaux.
Plusieurs autres pays, dont la Malaisie, le Royaume-Uni, la France et le Canada, semblent prêts à suivre l'exemple australien, en préparant des réglementations et des lois instaurant des interdictions ou des restrictions similaires.
Début 2026, de nombreux organismes des Nations Unies œuvrant pour la protection de l’enfance ont signé une Déclaration commune sur l’intelligence artificielle et les droits de l’enfant, publiée le 19 janvier. Ce document décrit sans détour les risques et l’incapacité collective de la société à y faire face.
La déclaration met en évidence le manque de connaissances en IA chez les enfants, les enseignants, les parents et les personnes s’occupant d’enfants, ainsi qu’une pénurie de formations techniques pour les décideurs politiques et les gouvernements sur les cadres d’IA, les méthodes de protection des données et les évaluations d’impact sur les droits de l’enfant.
Les entreprises technologiques sont également mises en cause : la déclaration indique que la plupart des outils basés sur l’IA qu’elles développent – ainsi que leurs modèles, techniques et systèmes sous-jacents – ne sont actuellement pas conçus en tenant compte des enfants et de leur bien-être.
« Nous sommes très préoccupés et nous souhaitons que le secteur privé s'implique, qu'il participe à l'histoire que nous écrivons avec les autres agences des Nations Unies et les autres acteurs qui pensent que la technologie peut être un catalyseur, mais aussi un facteur destructeur », déclare M. Zavazava.
Face à cette menace, des réponses émergent. Aux États-Unis, des lois comme le Take It Down Act de 2025 obligent les plateformes à retirer rapidement les contenus non consensuels.
En Europe, l'AI Act impose la labellisation des deepfakes pour prévenir la manipulation, tandis que la Digital Services Act (DSA) exige des plateformes majeures de mitiger les risques pour les enfants.
Une directive récente criminalise le partage d'images intimes non consensuelles générées par IA.
L'ONU recommande un renforcement des cadres de gouvernance IA, intégrant les droits des enfants, avec une transparence accrue et une conception centrée sur l'enfant.
Pour les parents, des conseils pratiques s'imposent : limiter les photos publiques, verrouiller les paramètres de confidentialité, et discuter ouvertement des risques.
Des outils comme les contrôles parentaux et l'éducation à la littératie numérique sont essentiels.