Pour les jeunes, Internet est un endroit pour la découverte de soi, la socialisation et la création de connexions significatives en ligne. Mais ces mêmes espaces peuvent également être utilisés par les auteurs qui ciblent les enfants pour toilettage et sextorsionet utiliser la technologie pour partager des enfants d’abus sexuels sur les enfants (CSAM).
Pour cette raison, les entreprises technologiques jouent un rôle clé dans la protection des enfants contre les abus et l’exploitation à l’ère numérique.
Chez Thorn, nous autonomisons les entreprises technologiques dans cette poursuite. Grâce à notre pilier de sécurité de plate-forme, nous dominons les plates-formes technologiques de solutions spécialement conçues pour lutter contre la propagation du matériel d’abus sexuel des enfants et aidons à réduire le cycle de traumatisme que sa circulation provoque. En tant qu’experts en technologie de la sécurité des enfants, nous aidons également les entreprises à comprendre leur rôle et leurs capacités spécifiques dans la participation à l’écosystème de la sécurité des enfants.
La lutte contre le CSAM est une étape critique vers la création d’environnements en ligne plus sûrs et le soutien des survivants de la maltraitance. Notre approche à multiples facettes permet à Thorn et à nos partenaires de plate-forme pour lutter contre les abus sexuels et l’exploitation sur le Web ouvert, et protéger les enfants à l’échelle mondiale.
![]()
Arrêter la propagation de matériel d’abus sexuel pour enfants
Il peut être déroutant d’apprendre que les plateformes mêmes que nous utilisons pour nous connecter avec nos amis et notre famille sont également utilisées par les auteurs pour créer et partager du matériel d’abus sexuel pour enfants. En ligne, ils sont en mesure de former des communautés soudées où ils facilitent la création et le commerce de matériel d’abus sexuel pour enfants.
Qu’est-ce que CSAM?
Mais qu’est-ce que le matériel d’abus sexuel des enfants ou le CSAM exactement? Le matériel d’abus sexuel des enfants est légalement connu sous le nom de pornographie juvénile aux États-Unis et fait référence à tout contenu qui représente des activités sexuellement explicites impliquant un enfant. Les représentations visuelles comprennent des photographies, des vidéos, du streaming en direct et des images numériques ou générées par ordinateur, y compris le contenu généré par l’IA, indiscernable d’une mineure réelle. L’émergence d’une IA générative élargit la portée pour inclure des adaptations AI-AI du contenu original, la sexualisation des images bénignes des enfants et le CSAM entièrement généré par l’IA.
Quelle est la grande crise en ligne des enfants abus sexuels en ligne? En 2004, 450 000 dossiers de CSAM présumés ont été signalés aux États-Unis d’ici 2024, ce nombre avait grimpé en flèche à plus de 61 millions de dossiers. C’est plus de 100 fichiers signalés chaque minute. Internet rend tout simplement trop facile de produire et de diffuser ce contenu horrible.
Comment se produit la revictimisation?
Même après qu’une victime d’enfant a été retirée des abus actifs, les abus pratiques, les photos et les vidéos de leur abus peuvent circuler en ligne et continuer le cycle du traumatisme.
Les survivants du CSAM peuvent avoir leurs abus partageant des dizaines de milliers de fois par an. Chaque fois que le contenu est partagé, la victime est à nouveau maltraitée.
Comment la technologie de Thorn arrête-t-elle le cycle des abus?
Bien que des millions de fichiers de CSAM se répandent quotidiennement, ils sont mélangés avec des quantités encore plus élevées d’images et de vidéos inoffensives. Cet afflux de contenu rend l’identification des fichiers CSAM incroyablement difficiles, à forte intensité de ressources et presque impossibles pour une revue humaine seule. Sans oublier que le péage émotionnel débilitateur examine ce matériel prend en charge les personnes qui travaillent à assurer la sécurité des communautés en ligne.
Chez Thorn, nous avons développé SAFER, notre solution spécialement conçue, pour permettre aux plateformes technologiques de détecter, examiner et signaler CSAM à grande échelle.
Plus sûr identifie le CSAM connu et précédemment signalé grâce à ses capacités de hachage et de correspondance. Il détecte également le CSAM présumé inconnu à travers ses classificateurs d’image et de vidéo prédictifs de l’IA. Il est essentiel de trouver ce matériel d’abus non déclaré car il aide à alerter les enquêteurs à des situations d’abus actives afin que les victimes puissent être retirées du préjudice. Thorn a également publié une technologie qui identifie des conversations potentiellement nocives liées aux abus sexuels sur les enfants pour arrêter les dommages avant son début. Des équipes de confiance et de sécurité plus sûres avec une solution proactive pour trouver le CSAM et la signaler aux autorités.
En combattant le CSAM sur leurs plateformes, les entreprises technologiques peuvent protéger les enfants et également rompre ce cycle de revictimisation.
L’effort fonctionne
À ce jour, THORN a aidé l’industrie technologique à détecter et à signaler pour le retrait de près de 6,5 millions de fichiers d’abus sexuels sur Internet. Rien qu’en 2024, Safer a détecté plus de 4 millions de dossiers de CSAM suspecté sur les plateformes technologiques, ce qui a un impact tangible sur la vie des enfants et des survivants.
Les entreprises avec lesquelles nous nous associons vont des petites plateformes à certains des plus grands noms numériques ménagers au monde.
![]()
En 2019, le site mondial d’hébergement photo et vidéo Flickr est devenu un client plus sûr et s’appuie sur nos solutions de détection complètes pour trouver le CSAM sur sa plate-forme. En 2021, Flickr a déployé Classificateur d’image CSAM de Safer. En utilisant le classificateur, leur équipe de confiance et de sécurité pourrait détecter des images CSAM auparavant inconnues qu’ils n’auraient probablement pas découvert le contraire.
Un classificateur touché a conduit à la découverte de 2 000 images non vérifiées auparavant de CSAM et à une enquête menée par les forces de l’ordre – dans laquelle un enfant a été sauvé du préjudice.
En 2022, Flickr a signalé 34 176 dossiers de CSAM suspecté au National Center for Missing and Exploited Children. Il s’agit de données sur lesquelles peuvent être réalisées pour identifier et retirer les victimes des enfants du préjudice.
![]()
Vscoune application pour les communautés de création de photos et de vidéos, déployée plus sûre en 2020. Face à l’accélération de CSAM en ligne, le dévouement principal de VSCO à la sécurité les a poussés à hiérarchiser la détection sur leur plate-forme.
VSCO utilise plus sûr pour cibler de manière proactive le CSAM à grande échelle. L’outil accélère leurs efforts et augmente la quantité de contenu qu’ils peuvent examiner, leur permettant de lancer un filet plus large. En trois ans, ils ont signalé 35 000 dossiers de CSAM suspecté aux autorités.
Une approche multiforme de la sécurité des enfants en ligne
La lutte contre les abus sexuels sur les enfants en ligne nécessite une approche globale, impliquant la technologie, l’éducation de l’industrie, les politiques et l’engagement communautaire. Thorn travaille à chaque niveau pour créer un changement systémique et renforcer l’écosystème de la sécurité des enfants.
Sécurité par conception
Dans l’industrie de la technologie, tout le monde, des développeurs d’IA, aux plateformes d’hébergement de données, les applications de médias sociaux aux moteurs de recherche, se croisent avec la sécurité des enfants d’une manière ou d’une autre. Thorn les aide à comprendre et à identifier les menaces qui se produisent sur leurs plateformes et comment les atténuer.
L’émergence d’une IA générative n’a fait qu’accélérer la propagation de la technologie facilité les abus sexuels sur les enfants. Thorn exhorte les entreprises à prendre un Approche de sécurité par conceptionce qui nécessite que des mesures de sécurité soient intégrées dans la conception centrale des technologies.
Chez Thorn, nous construisons la technologie pour défendre les enfants contre les abus sexuels. Mais nous ne sommes qu’une pièce du puzzle, avec l’industrie technologique, les décideurs politiques et le public.
Lorsque nous travaillons ensemble, nous pouvons combattre la propagation du CSAM. Ce faisant, nous cesserons de revictimisation et commencerons à construire un monde où chaque enfant est libre d’être simplement un enfant.
Se joindre à nous
Devenir une force pour de bon. En savoir plus sur Solutions de Thorn Et comment vous pouvez contribuer à transformer la façon dont nous protégeons les enfants contre les abus sexuels et l’exploitation à l’ère numérique.
Voir nos solutions

