― ANNONCE PUBLICITAIRE ―

spot_img
AccueilLa défenseComment la prise de contrôle DC de Trump pourrait suralimenter la surveillance

Comment la prise de contrôle DC de Trump pourrait suralimenter la surveillance

[ad_1]

La déclaration du président Trump d’une «urgence criminelle» à Washington, DC, entrèdera davantage l’armée américaine – et son équipement et sa technologie – en matière d’application de la loi, et exposeront peut-être les résidents et les visiteurs de DC à une surveillance numérique sans précédent.

En écarte les statistiques qui montrent des crimes violents à DC à 30 ans, Trump a décrit lundi un nouveau niveau de coordination entre les unités de la Garde nationale de DC et les organismes fédéraux d’application de la loi, notamment le FBI, la glace et les nouveaux forces de police de DC.

« Nous aurons une coopération complète, transparente et intégrée à tous les niveaux d’application de la loi, et déploierons les officiers du district avec une présence écrasante. Vous aurez plus de police, et vous serez si heureux parce que vous êtes en sécurité », a-t-il déclaré lors d’une conférence de presse à la Maison Blanche.

Le secrétaire à la Défense, Pete Hegseth, debout à côté de Trump, a promis une étroite collaboration entre le Pentagone et les autorités nationales. «Nous travaillerons aux côtés de toutes les policiers de DC et des forces de l’ordre fédérales pour s’assurer que cette ville est sûre.»

Qu’est-ce qui vient ensuite? Le déploiement de juin 2020 des unités de la Garde nationale pour travailler aux côtés de la police de DC offre un aperçu: l’utilisation à l’échelle de la ville de technologies sophistiquées de collecte de renseignements normalement réservées aux zones de guerre étrangères.

Certaines plates-formes de surveillance seront relativement faciles à repérer, comme des avions d’espionnage sur un espace aérien étroitement gardé de DC. En 2020, les autorités ont déployé un RC-26B, un avion d’intelligence militaire et des drones prédateurs MQ-9. Le FBI a apporté un Cessna 560 équipé de «Dirtbox»: des appareils qui imitent les tours de cellules pour collecter des données mobiles, utilisées depuis longtemps par l’armée américaine pour suivre les réseaux terroristes au Moyen-Orient.

Les autres équipements seront moins évidents.Les protestations 2020 ont vu une utilisation élargie des raies, un autre type de dispositif d’interception cellulaire. Développés pour permettre aux militaires de suivre des militants en Irak et en Afghanistan, les raies Stingays ont été utilisées par les services secrets américains en 2020 et 2021 d’une manière que l’inspecteur général du DHS a trouvé enfreint le droit et les politiques concernant la vie privée et les mandats. Les responsables de l’agence ont déclaré que les circonstances «exigantes» justifiaient l’espionnage illicite.

Désormais, avec les agences fédérales et les entités travaillant avec des militaires dans des circonstances d’urgence déclarées, de nouveaux équipements pourraient entrer dans le domaine intérieur. Et les responsables locaux ou les comités d’examen civils qui supervisent normalement l’utilisation de ces technologies peuvent manquer de pouvoir de prévenir ou même de le surveiller. En 2021, le gouvernement DC a mis fin à un programme pilote de reconnaissance faciale après que la police l’a utilisée pour identifier un manifestant à Lafayette Square. Mais les interdictions locales ne s’appliquent pas aux forces fédéralisées ou militaires.

Suivant: Surveillance propulsée par l’IA

Comment les nouveaux outils d’IA et les nouvelles mesures de la Maison Blanche pourraient-elles faciliter le partage entre les entités fédérales, permettre le ciblage de la surveillance?

DHS et ses sous-agences utilisent déjà AI. Certains outils – tels que surveiller les camions ou les cargaisons à la frontière pour la contrebande, la cartographie des réseaux de traite des êtres humains et de drogue et de regarder la frontière – méritent une mission évidente de la sécurité publique. L’année dernière, le DHS a utilisé l’IA et d’autres outils pour identifier 311 victimes d’exploitation sexuelle et pour arrêter les auteurs suspects. Ils aident également le DHS à contrer l’écoulement du fentanyl; En octobre dernier, l’agence a cité l’IA tout en signalant une augmentation de 50% des crises et une augmentation de 8% des arrestations.

La TSA utilise la reconnaissance faciale à travers le pays pour correspondre aux visages et aux documents des passagers des compagnies aériennes entrant aux États-Unis dans au moins 26 aéroports, selon les données de l’agence 2022. La précision s’est considérablement améliorée au cours de la dernière décennie, et la recherche suggère que des performances encore meilleures sont possibles: l’Institut national des normes et de la technologie a montré que certains algorithmes peuvent atteindre une précision de 99% et plus dans des conditions idéales.

Mais les conditions ne sont pas toujours idéales et les erreurs peuvent être coûteuses. « Il y a eu des rapports publics de sept cas d’arrestations erronées associées à l’utilisation de la technologie de reconnaissance faciale, presque toutes impliquant des personnes noires. La collecte et l’utilisation de données biométriques présentent également des risques de confidentialité, en particulier lorsqu’ils impliquent des informations personnelles que les gens ont partagées dans des contextes non liés », a noté un rapport du ministère de la Justice en décembre.

Lundi, Trump a promis que l’augmentation de l’activité fédérale ciblerait «des gangs connus, des trafiquants de drogue et des réseaux criminels». Mais la cartographie du réseau – en utilisant des informations numériques pour identifier qui sait qui et comment – a d’autres utilisations, et augmente le risque que les innocents soient mal identifiés.

La semaine dernière, l’ACLU a déposé une demande de loi sur la liberté d’information concernant l’utilisation de deux outils logiciels par l’agence de sécurité intérieure et d’urgence de DC. Appelé les toiles d’araignée et les enchevêtrements, les outils peuvent révéler des informations sensibles sur toute personne avec juste un nom ou une adresse e-mail, selon des documents internes cités dans le dossier.

Les toiles d’araignées montrent comment l’IA peut essuyer de nouvelles perspectives à partir des sources de données existantes, en particulier lorsqu’il n’y a pas de règles pour interdire la collecte de grands réserves de données. Bien avant l’existence de la capacité pour le faire efficacement, cette idée était au centre de ce qui, il y a une décennie, était appelé la police prédictive.

Le concept a perdu sa faveur depuis les années 2010, mais de nombreux agences d’application de la loi en recherchent toujours des versions. Historiquement, le principal obstacle a été trop de données, fragmentées entre les systèmes et les structures. Le DHS a un accès légal aux séquences vidéo publiques, aux publications sur les réseaux sociaux et aux dossiers d’entrée aux frontières et à l’aéroport, mais jusqu’à récemment, ces ensembles de données étaient difficiles à analyser en temps réel, en particulier dans les contraintes juridiques.

Cela change. La Loi sur la technologie gouvernementale de modernisation de 2017 a encouragé de nouvelles ressources logicielles et de cloud computing pour aider les agences à utiliser et à partager des données plus efficacement, et en mars, un décret a supprimé plusieurs obstacles au partage de données interagences. Le gouvernement a depuis attribué des milliards de dollars aux entreprises privées pour améliorer l’accès aux données internes.

L’une de ces entreprises est Palantir, dont le travail a été caractérisé par le New York Times comme un effort pour compiler une «liste principale» des données sur les citoyens américains. L’entreprise a contesté que dans un article de blog du 9 juin: «Palantir est une société de logiciels et, dans le contexte de nos engagements clients, fonctionne comme un« processeur de données »- nos logiciels sont utilisés par les clients pour gérer et utiliser leurs données.»

Dans un article de 2019 pour la division de formation du FBI, le shérif californien Robert Davidson a envisagé un scénario – maintenant technologiquement possible – dans lequel l’IA analyse l’imagerie de la caméra corporelle en temps réel: «Surveillance, reconnaissance faciale, analyse de la démarche, menace des armes et analyse de stress vocale pourraient évaluer activement une réponse potentielle sur l’officier.

Les données DHS collectent s’étend bien au-delà de la correspondance d’images en direct aux photos dans une base de données ou de détection des états émotionnels des passagers. L’unité d’enquête sur la sécurité intérieure d’ICE, par exemple, gère de grands volumes de courriels multilingues. DHS décrit son programme d’analyse par e-mail comme utilisant l’apprentissage automatique «pour la classification des spams, la traduction et l’extraction d’entités (tels que les noms, les organisations ou les emplacements).»

Un autre outil DHS analyse les publications sociales pour recueillir des «informations open source sur les voyageurs qui peuvent être soumis à un dépistage ultérieur pour une violation potentielle des lois». L’outil peut identifier des comptes et des sélecteurs supplémentaires, tels que les numéros de téléphone ou les adresses e-mail, selon la documentation DHS.

Pendant ce temps, la portée opérationnelle de ICE s’est développée. La Maison Blanche a accru le pouvoir de l’agence de fonctionner dans les hôpitaux et les écoles, collecter des données sur l’emploi, y compris les non-immigrants, tels que les «sponsors» de mineurs non accompagnés – et imposer des sanctions plus élevées aux personnes considérées comme «interférant» avec les activités de glace. Les dirigeants du travail disent qu’ils ont été ciblés pour leur activisme politique. Des manifestants ont été inculpés d’avoir agressé des agents de glace ou des employés. ICE a installé des applications de reconnaissance faciale sur les téléphones des officiers, permettant une identification sur place des personnes protestant contre les tactiques de l’agence. Les bulletins du DHS envoyés aux forces de l’ordre locaux encouragent les agents à considérer un large éventail d’activités normales, telles que le tournage des interactions policières, en tant que précurseurs potentiels à la violence.

Une large accessibilité de données même légalement collectées soulève des préoccupations, en particulier à une époque où les outils d’IA peuvent dériver des informations spécifiques sur les personnes. Mais avant même ces développements, les chiens de garde du gouvernement ont exhorté une plus grande transparence dans l’utilisation de l’IA domestique. Un rapport de décembre du Government Accountability Office comprend plusieurs recommandations ouvertes, principalement liées aux protections de la vie privée et à la transparence des rapports. Le mois suivant, l’inspecteur général du DHS a averti que l’agence n’avait pas de cadres de surveillance complets ou bien ressourcés.

En juin, le sénateur Ed Markey, D-Mass., Et plusieurs co-signataires ont écrit à la Maison Blanche de Trump: «En plus de ces utilisations concernant l’analyse des sentiments à des fins d’application de la loi, les agences fédérales ont également manifesté leur intérêt pour l’informatique affective et les technologies de détection de tromperie qui ont prétendument déduit les états mentaux des individus à partir de mesures de leurs expressions faciales, du langage corporel ou de l’activité physiologique. »

La lettre demande au GAO d’enquêter sur ce que les politiques du DHS ou du ministère de la Justice régissent l’utilisation de l’IA et si celles-ci sont suivies. Le bureau de Markey n’a pas répondu à une demande de commentaires.

Écrivant pour l’American Immigration Council en mai, Steven Hubbard, le principal scientifique des données du groupe, a noté que sur les applications de DHS 105 IA, 27, «l’impact des droits».

« Ce sont des cas que l’OMB, en vertu de l’administration Biden, a identifié comme ayant un impact sur les droits, la liberté, la vie privée, l’accès à l’égalité des chances ou la capacité de demander des avantages et des services gouvernementaux », a déclaré Hubbard.

La Maison Blanche a récemment remplacé les directives de l’ère Biden sur l’IA avec de nouvelles règles destinées à accélérer le déploiement de l’IA à travers le gouvernement fédéral. Bien que les directives mises à jour conservent de nombreux garde-corps de sécurité, ils incluent certains changements, notamment la fusion des utilisations «impactant la confidentialité» et «l’impact de la sécurité» de l’IA dans une seule catégorie: «Impact élevé».

Les nouvelles règles éliminent également une exigence pour les agences de notifier les gens lorsque les outils d’IA peuvent les affecter et offrir un désactivation.

Les précédents de ce type d’expansion techno-surveillance peuvent être trouvés dans les pays rarement considérés comme des modèles pour la politique américaine. La Chine et la Russie ont considérablement élargi la surveillance et la police sous les auspices de la sécurité. La Chine exploite un vaste réseau de caméras dans les espaces publics et centralise ses données pour permettre une analyse rapide de l’IA. La Russie a suivi une voie similaire à travers son programme de «villes sûres», intégrant les flux de données d’un vaste réseau de surveillance pour repérer et arrêter la criminalité, les manifestations et la dissidence.

Jusqu’à présent, les États-Unis ont dépensé moins que ces proches, en pourcentage du PIB, sur les outils de surveillance, qui sont exploités dans un cadre, aussi tendu, de règle de droit et de protections des droits qui peuvent atténuer les utilisations les plus draconiennes.

Mais la distinction entre les États-Unis et la Chine et la Russie se rétrécit, a déclaré Nathan Wessler, directeur adjoint du discours, de la vie privée et de la technologie de l’ACLU, en juillet. « Il y a le vrai scénario de cauchemar, qui est un suivi omniprésent de la vidéo en direct ou enregistrée, quelque chose qui, dans l’ensemble, nous avons gardé aux États-Unis. C’est le genre de chose que les régimes autoritaires ont investi fortement. »

Wessler a noté qu’en mai, le Washington Post a rapporté que les autorités de la Nouvelle-Orléans appliquaient une reconnaissance faciale aux flux vidéo en direct. «À cette échelle, que [threatens to] Il suffit d’effacer notre capacité à passer nos vies sans être identifiée et suivi de façon omniprésente par le gouvernement. »

[ad_2]

Source link