Les enfants et les adolescents vivent aujourd’hui une grande partie de leur vie en ligne – où de nouveaux risques émergent à un rythme sans précédent. L’une des dernières menaces émergentes? Nudes Deepfake.
Nos dernières recherches à Thorn, Nudes Deepfake et jeunes: naviguer Nouvelle frontière dans les abus sexuels et exploitation sexuels non consensuels facilitées par la technologie, révèle que 31% des adolescents connaissent déjà des nus Deepfakeet 1 sur 8 connaît personnellement quelqu’un qui a été ciblé.
Au cours des dernières années, DeepFake Technology s’est développé rapidement, ce qui permet de créer des images explicites hyper réalistes de quiconque en quelques secondes – sans expertise technique requise.
Bien que l’abus d’images non consensuelle ne soit pas nouvelle, la technologie DeepFake représente une évolution dangereuse dans cette forme d’exploitation sexuelle des enfants. Contrairement aux méthodes de manipulation de photos antérieures, le contenu généré par l’IA est conçu pour être indiscernable des images réelles, ce qui en fait un outil particulièrement puissant pour abus, harcèlement, chantage et préjudice de réputation.
Alors que la technologie DeepFake devient plus accessible, nous avons une fenêtre critique d’opportunité de comprendre et de combattre cette forme dévastatrice d’exploitation numérique – avant de se normaliser dans la vie des jeunes.
La prévalence émergente des nus defake profonds
L’étude, qui a interrogé 1 200 jeunes (13 à 20 ans), a révélé que les nus defake représentent déjà des expériences réelles que les jeunes doivent naviguer.
Ce que les jeunes nous ont dit des nus Deepfake:
1 Les adolescents sur 17 ont indiqué qu’ils avaient des nus profonds créés d’eux par quelqu’un d’autre (c’est-à-dire, ont été victimes de nus profonds) .84% des adolescents croient que les nus profonds sont nocifs, citant la détresse émotionnelle (30%), les dommages de réputation (29%) et la tromperie (26%) comme les principales raisons. Alors que la plupart reconnaissent le préjudice, 16% des adolescents croient toujours que ces images ne sont «pas réelles» et, par conséquent, pas un problème grave. Les outils sont alarmant faciles d’accès. Parmi les 2% des jeunes qui ont admis avoir créé des nus profonds, la plupart ont appris les outils dans les magasins d’applications, les moteurs de recherche et les plateformes de médias sociaux. Les victimes restent souvent silencieuses. Près des deux tiers (62%) des jeunes disent qu’ils diraient à un parent si cela leur arrivait – Mais en réalité, seulement 34% des victimes l’ont fait.
Pourquoi cela compte
Notre vice-président de la recherche et des idées, Melissa Stroebel, l’a mieux dit: «Aucun enfant ne devrait se réveiller pour trouver leur visage attaché à une image explicite circulant en ligne – mais pour trop de jeunes, c’est maintenant une réalité.»
Cette recherche confirme le rôle important que les entreprises technologiques jouent dans la conception et le déploiement de la technologie consciente des risques de mauvaise utilisationtout en soulignant également la nécessité d’éduquer les jeunes et leurs communautés sur la façon de lutter contre ce type d’abus numérique et d’exploitation.
Ce que tu peux faire
Tout le monde peut jouer un rôle dans la réponse aux menaces émergentes comme les nus Deepfake et d’autres dommages.
Les parents peuvent parler à leurs enfants tôt et souvent: de nombreux parents et soignants n’ont même pas entendu parler de Nudes Deepfake, mais les jeunes ont besoin, et ils ont besoin de conseils sur la façon de naviguer dans cette nouvelle menace.
Commencez la conversation à ce sujet tôt. Même si votre enfant n’a pas encore rencontré de nus Deepfake, discuter d’eux maintenant peut les aider à reconnaître les risques avant de devenir une cible. Réinvenant que les nus profonds ne sont pas une blague. Certains jeunes considèrent ces images comme inoffensives ou même humoristiques, mais la réalité est qu’ils peuvent avoir des conséquences dévastatrices pour les victimes. Apprenez aux enfants à faire s’ils sont ciblés. Assurez-vous de savoir où signaler les nus Deepfake, demander un soutien et comprendre qu’ils ne sont pas seuls à naviguer dans les menaces en ligne.
Les plates-formes doivent hiérarchiser la sécurité:La propagation des nus Deepfake souligne le besoin urgent de plates-formes pour assumer la responsabilité de la conception d’espaces numériques plus sûrs. Les plates-formes doivent:
Adoptez une approche de sécurité par conception pour détecter et empêcher la création et la distribution d’images profondes avant que des dommages ne se produisent. Commentez la transparence et la responsabilité en partageant la façon dont ils traitent des menaces émergentes comme des nus defake et de la mise en œuvre des solutions qui hiérarchisent la sécurité des enfants.
En savoir plus et soutenir Thorn:
Ensemble, nous pouvons continuer à défendre les enfants contre les abus sexuels et l’exploitation.