Les images d'abus sexuels sur enfants générées à l'aide de l'intelligence artificielle sont en augmentation, rendant de plus en plus difficile l'identification des victimes et des auteurs, a averti lundi l'agence européenne de police.
"Le volume de matériel sexuel auto-fabriqué constitue désormais une part importante et croissante du matériel sexuel pédopornographique en ligne", et est "appelé à proliférer davantage dans un avenir proche", a souligné dans un rapport l'agence basée à La Haye.
Même dans les cas où le contenu est entièrement artificiel et où aucune victime réelle n'est représentée, le matériel pédopornographique généré par l'IA contribue toujours à l'objectivation et à la sexualisation des enfants, a souligné Europol.
L'utilisation de l'IA pour générer ou modifier du matériel pédopornographique augmente également "la quantité de matériel illicite en circulation et complique l'identification des victimes ainsi que des auteurs".
L'avènement de l'IA suscite une inquiétude croissante quant à son utilisation à des fins malveillantes, notamment à travers la création de "deepfakes" - des images et des vidéos générées par ordinateur, souvent réalistes, basées sur un modèle réel.
Plus de 300 millions d'enfants sont victimes chaque année d'exploitation et d'abus sexuels en ligne, ont déclaré en mai des chercheurs de l'Université d'Édimbourg.
Les infractions vont de la "sextorsion" visant des adolescents victimes de chantage après des diffusions de photos intimes sur internet, à l'abus de la technologie de l'IA pour créer de fausses vidéos et images, selon les chercheurs.
Outre la création d'images explicites de mineurs, les criminels utilisent l'IA pour commettre toute une série de délits allant de la fraude en ligne aux cyberattaques, indique également le document de 37 pages d'Europol, qui cartographie les menaces en ligne auxquelles l'Europe est actuellement confrontée.
Vos commentaires