Chez Thorn, nous sommes dédiés à la construction d’une technologie de pointe pour défendre les enfants contre les abus sexuels. La clé de cette mission est notre matériau d’abus sexuel (CSAM) et notre solution de détection CSE, plus sûre, qui permet aux plateformes technologiques de trouver et de signaler le CSAM et des dommages textuels sur leurs plateformes. En 2024, nous avions plus d’entreprises que jamais en sécurité sur leurs plateformes. Cet engagement généralisé envers la sécurité des enfants est essentiel pour construire un Internet plus sûr et utiliser la technologie comme force pour de bon.
Impact de 2024 de Safer
Même si la communauté de clients de Safer s’étend sur un large éventail d’industries, ils hébergent tous le contenu téléchargé par leurs utilisateurs ou les intrants de texte dans des moteurs génératifs et des fonctionnalités de messagerie.
SAFER permette à leurs équipes de détecter, d’examiner et de signaler la CSAM et l’exploitation sexuelle des enfants basée sur le texte à grande échelle. La portée de cette détection est critique. Cela signifie que leurs modérateurs de contenu et leurs équipes de confiance et de sécurité peuvent trouver le CSAM au milieu des millions de fichiers de contenu téléchargés et signalent l’exploitation potentielle au milieu de millions de messages partagés. Cette efficacité fait gagner du temps et accélère leurs efforts. Tout aussi important, Safer permet aux équipes de signaler le CSAM ou des instances d’inscription en ligne aux agences de rapports centrales, comme le National Center for Missing & Exploited Children (NCMEC), qui est critique pour l’identification des victimes de l’enfant.
Les clients de Safer comptent sur notre intelligence artificielle prédictive et une base de données de hachage complète pour les aider à trouver le CSAM et l’exploitation potentielle. Avec leur aide, nous progressons vers la réduction des dommages sexuels en ligne contre les enfants et la création d’un Internet plus sûr.
Fichiers totaux traités
En 2024, SAFER a traité 112,3 milliards de fichiers de fichiers par nos clients. Aujourd’hui, la communauté plus sûre comprend plus de 60 plateformes, avec des millions d’utilisateurs partageant quotidiennement une quantité incroyable de contenu. Cela représente une base substantielle pour le travail important de prévention du partage répété et viral de CSAM en ligne.
Fichiers CSAM potentiels totaux détectés
Plus sûr a détecté un peu moins de 2 000 000 d’images et de vidéos de CSAM connu en 2024. Cela signifie que plus sûr correspondait aux hachages des fichiers pour vérifier les valeurs de hachage de sources de confiance, les identifiant comme CSAM. Un hachage est comme une empreinte digitale numérique, et les utiliser permet à SAFER de déterminer par programmation si ce fichier a été précédemment vérifié comme CSAM par NCMEC ou d’autres ONG.
En plus de détecter le CSAM connu, notre IA prédictive a détecté plus de 2 200 000 fichiers de nouveau CSAM potentiel. Les classificateurs d’image et de vidéo de Safer utilisent l’apprentissage automatique pour prédire si le nouveau contenu est susceptible d’être CSAM et de le signaler pour un examen plus approfondi. L’identification et la vérification du nouveau CSAM lui permet d’être ajoutée à la bibliothèque de hachage, accélérant la détection future.
Au total, plus sûr a détecté plus de 4 100 000 fichiers de CSAM connu ou potentiel.
Total des lignes de texte traitées
Safer a lancé une fonctionnalité de classificateur de texte en 2024 et traité plus de 3 000 000 de texte en première année seulement. Cette capacité offre une toute nouvelle dimension de détection, aidant les plates-formes identifier la sextorsion et d’autres comportements d’abus qui se produisent via des fonctionnalités de texte ou de messagerie. Au total, près de 3 200 lignes d’exploitation potentielle des enfants ont été identifiées, aidant les modérateurs de contenu à répondre à un comportement potentiellement menaçant.
Impact de tous les temps de plus sûr
L’année dernière a été un moment de bassin versant pour plus de sécurité, la communauté doublant presque le total de tous les temps traités. Depuis 2019, Safer a traité 228,8 milliards de fichiers et 3 millions de lignes de texte, ce qui a entraîné la détection de près de 6,5 millions de fichiers CSAM potentiels et près de 3 200 cas d’exploitation potentielle des enfants. Chaque fichier traité, et chaque correspondance potentielle réalisée, aide à créer un Internet plus sûr pour les enfants et les utilisateurs de plate-forme de contenu.
Construire un Internet plus sûr
La réduction de la plate-forme abusive et la résolution des dommages sexuels en ligne contre les enfants nécessite une approche «toutes les mains». Trop de plateformes souffrent encore d’équipes cloisonnées, de pratiques incohérentes et de lacunes politiques qui met en danger la modération efficace du contenu. Thorn est là pour changer cela, et plus sûr est la réponse.