The rise of artificial intelligence in all things military — ranging from intelligence gathering and command and control to autonomous air combat maneuvering and advanced loitering munitions — has yielded a problem for the United States: While it is crucial to stay ahead of China in technological advancement and the fielding of improved weapons systems, it also is crucial to create a doctrine of AI counter measures, or AICM, to blunt AI systems out of Pékin.
Une telle doctrine devrait prendre forme le long de quatre approches: polluer les modèles de grands langues pour des effets négatifs; utiliser la loi de Conway pour obtenir des conseils aux défauts exploitables; exploiter le biais du leadership adversaire pour dégrader les systèmes d’IA; et en utilisant des armes RF pour en cascade AI prenant en charge le matériel informatique.
Ces systèmes peuvent sembler insurmontables sur leur visage. Eh bien, peut-être pas. Comme l’a dit Mark Twain, “l’histoire ne se répète pas, mais elle rime.”
Ainsi, peut-être qu’un aperçu du passé aidera à envisager l’avenir.
Polluer de grands modèles de langue pour créer des effets négatifs
L’IA générative peut être exprimée comme l’extraction de modèles statistiques à partir d’un ensemble de données extrêmement important. Il est important de comprendre qu’un modèle grand langage, ou LLM, développé à partir d’un tel ensemble de données utilisant la technologie «Transformer» permet à un utilisateur d’y accéder via une «invite» – un texte de langage naturel qui décrit la fonction que l’IA doit remplir. Le résultat final est un modèle génératif pré-formé ou GPT.
Ainsi, il existe au moins deux approches pour dégrader un tel système d’IA: polluer les données ou attaquer «l’ingénierie rapide» – un terme d’art au sein de la communauté d’IA décrivant le processus de structuration des instructions qui peuvent être comprises par le système d’IA génératif. Une erreur de programmation, comme indiqué ci-dessous, fera que le système AI LLM, dans un autre terme d’art d’IA, «hallucine».
Une analogie historique de la Seconde Guerre mondiale valide l’importance cruciale des contre-mesures lorsqu’un ennemi a un accès unilatéral à des informations sur l’espace de combat.
Le développement du radar – la détection et la tolérance de radio-azimut – était, en soi, une méthode d’extraction de modèles d’une base de données extrêmement grande. Dans l’immensité du ciel, un écho d’une impulsion radio a donné une plage précise et une ouverture d’avions invisibles.
Pour le vaincre, comme décrit par RV Jones dans la plupart des guerre secrètes, il était nécessaire de mettre des informations dans le système radar allemand, provoquant ainsi une ambiguïté brute. Jones s’est tourné vers un physicien dans l’établissement de recherche technique, Joan Curran, qui a développé la taille et la forme optimales des bandes d’aluminium en aluminium – appelées «fenêtre» par les Britanniques et la «balle» par les Américains – utilisées pour créer des milliers de réflexions qui ont surchargé et aveuglé des radars allemands.
De la même manière, les communautés militaires et de renseignement américaines peuvent créer des ambiguïtés et des obscurations au sein des systèmes d’IA génératifs, en particulier lorsque vous essayez de refuser l’accès aux informations sur les armes et les tactiques.
Cela peut être fait en affectant des noms auxdites armes et tactiques, conçues pour être à la fois ambiguës et non séquentées. Par exemple, de telles ambiguïtés de recherche «naturelles» comprennent les éléments suivants:
Une recherche de «Flying Prostitute» révèle des données sur le bombardier moyen B-26 Marauder de la Seconde Guerre mondiale. «Gilda» et «Atoll» récupèrent une photo de la bombe nucléaire de Mark III qui a été lâchée sur Bikini Atoll en 1946, sur laquelle a été collé une photo de Rita Hayworth. «Tonopah» et «chèvre» rétracte le F-17 Stealth Fighter.
Étant donné qu’une recherche d’ordinateur contemporaine est facilement dupe, il serait possible de fausser grossièrement les résultats d’une fonction LLM en utilisant délibérément la nomenclature qui se produit dans de très grandes itérations et est extrêmement ambigu.
Peut-être que le combattant de la dominance aérienne de prochaine génération (NGAD) pourrait, dans une telle tentative, être renommé quelque chose comme «Stormy Daniels». On peut imaginer que les officiers et les sous-officiers chinois consternés vivraient lorsque leurs jeunes soldats passent un temps précieux examinant méticuleusement les images qui n’ont aucun rapport avec la recherche souhaitée.
Même les systèmes «à puits d’air» comme ceux utilisés par les agences de renseignement américains peuvent être affectés lorsque les systèmes mettent à jour les informations à partir de sources en ligne.
Un tel effort doit polluer activement et en continu des ensembles de données, un peu comme le ballon confondant un système radar, en générant du contenu qui remplirait le modèle et forcerait l’adversaire à le consommer.
Une approche plus sophistiquée utiliserait des mots clés comme «eBay» ou «Amazon» comme prédicat, puis des mots communs comme «Tire» ou «vélo» ou «chaussure». Contracter avec une agence de médias commerciaux pour promouvoir les «articles» sur les médias traditionnels et sociaux aurait tendance à obstruer un modèle de langue large.
Utiliser la loi de Conway pour obtenir des conseils aux défauts exploitables
Melvin Conway est un informaticien américain, qui, dans les années 1960, a conçu la règle éponyme déclarant: «Les organisations qui ont des systèmes de conception sont contraints de produire des conceptions qui sont des copies des structures de communication de ces organisations.»
En réponse, le corollaire de De Caro déclare: «Plus l’équipe de conception est dogmatique, plus la possibilité de saboter l’ensemble du design.»
Considérez Google Gemini. Le lancement de février 2024 de la réponse potentiel de Google à Chatgpt a été une catastrophe non atténuée qui a déversé le cours de l’action de Google et a laissé à la société une rive. Alors que le lancement des Gémeaux avançait, son générateur d’images a «halluciné» – et a créé des images de soldats nazis noirs et de papes asiatiques.
Rétrospectivement, l’événement a été l’exemple le plus flagrant de ce qui se passe lorsque la loi de Conway entre en collision avec le dogme organisationnel. Historiquement, les programmeurs ignorants ont conduit myopiquement leur entreprise dans une débâcle.
Mais, pour ceux qui souhaitent confondre les systèmes d’IA de la Chine, la catastrophe des Gémeaux est une épiphanie!
Si les programmeurs du campus «Googleplex» à Mountain View, en Californie, peuvent gâcher si énormément, quel type de tourbillon tourbillonnant de la programmation de Snafu est créé par les jeunes membres endoctrinés de l’Armée de libération populaire qui travaille sur l’IA?

Une solution pour battre les systèmes d’IA de la Chine peut être un épistémologue spécialisé dans la communication culturelle de l’APL. En utilisant le corollaire de De Caro, un tel expert pourrait diriger une équipe d’informaticiens pour reproduire les normes de communication chinoises et trouver les faiblesses de leur système – le laissant ouvert à l’usurpation ou à l’effondrement pur et simple.
Il convient également de noter que lorsqu’une technologie crée une menace existentielle, les développeurs individuels de cette technologie deviennent des cibles stratégiques. Par exemple, en 1943, l’opération Hydra a utilisé l’intégralité du RAF British Bomber Command de 596 bombardiers, avec la mission déclarée de tuer des scientifiques allemands de fusées à Peenemunde. La RAF a connu un succès marginal et a été suivi de trois raids américains de l’Air Force en juillet et août 1944.
En 1944, l’Office of Strategic Services (OSS) a envoyé un agent multilingue et Polymathe Mo Berg pour assassiner le scientifique allemand Werner Heisenberg, si Heisenberg semblait être sur la bonne voie pour construire une bombe atomique. Berg a décidé à juste titre que l’allemand était hors piste, et le laisser vivre empêcherait les nazis de tout succès.
Ce n’est pas un secret non plus que cinq scientifiques nucléaires iraniens ont été assassinés – prétendument – par les Israéliens au cours de la dernière décennie. Les avancées de l’IA qui pourraient devenir des menaces existentielles peuvent être traitées de manière similaire.
Exploiter le biais du leadership adversaire pour dégrader les systèmes d’IA
Souvent, les entités finançant la recherche et le développement sont biaisées en raison de biais. Par exemple, le scientifique allemand susmentionné Werner Heisenberg était limité dans les chemins qu’il pourrait suivre vers une bombe n nazie en raison de la haine perverse d’Hitler de la «physique juive».
Cette attitude a été aidée et encouragée par deux scientifiques allemands éminents et antisémites, Phillip Lenard et Johannes Stark, tous deux lauréats du prix Nobel qui ont renforcé le mythe de la «science aryenne». Le résultat final a effectivement empêché un programme nucléaire allemand réussi.
Encore une fois, il y a une épiphanie ici: le biais du sommet affecte les résultats.
Alors que Xi Jinping continue son mouvement vers le régime autoritaire sous lui, il apporte ses préjugés avec lui. Cela affectera finalement ou infectera la puissance militaire chinoise.
En 2023, Xi a détaillé la nécessité pour la Chine de répondre aux normes militaires de la classe mondiale d’ici 2027, le 100e anniversaire de l’Armée de libération populaire. Xi a également parlé de «l’informatisation» (lire l’IA) pour accélérer la construction «d’un solide système de forces stratégiques fortes, d’élever la présence de forces de combat dans de nouveaux domaines et de nouvelles qualités et de promouvoir la formation militaire axée sur le combat.»
Il semble que le besoin de vitesse de Xi, en particulier dans «l’informatisation», pourrait être le biais qui indique une faiblesse qui peut être exploitée.
Utilisation des gyrotrons pour cascade des puces dans des ordinateurs prenant en charge l’IA
L’intelligence artificielle dépend de puces informatiques extrêmement rapides dont les capacités approchent de leurs limites physiques. Ils sont plus vulnérables au manque de refroidissement et d’impulsion électromagnétique.
Dans le cas de grands centres de données basés sur le cloud, le refroidissement est une nécessité absolue. Le refroidissement par l’eau est le plus économique et donc le plus répandu; Mais les pompes, les pompes de secours et les soupapes d’entrée ne sont généralement pas durcies et sont donc extrêmement vulnérables. Pas de pompes, pas d’eau. Pas d’eau, pas de refroidissement. Pas de refroidissement, pas de nuage.
Le même pour la puissance électrique primaire et secondaire. Pas de puissance, pas de nuage. Pas de générateurs, pas de nuage. Pas de carburant, pas de nuage.
Les drones aéroportés autonomes ou les véhicules mobiles moulues sont des cibles en mouvement – petites et difficiles à frapper. Cependant, leurs puces sont vulnérables à l’impulsion électromagnétique. Nous savons maintenant qu’un éclair avec des gigawatts de puissance n’est pas le seul moyen de supprimer un robot AI. Des systèmes micro-ondes de haute puissance tels que Epius, Leonidas et Thor peuvent brûler les systèmes d’IA à une gamme d’environ trois miles.
Une technologie intéressante qui n’est pas encore alimentée est le gyrotron. Il s’agit d’une source de micro-ondes de haute puissance développée par la guerre froide, développée par soviétique, à mi-chemin entre un Klystron et un laser électronique libre. Il crée une résonance de cyclotron dans un champ magnétique fort qui peut produire un boulon d’énergie personnalisé avec une largeur d’impulsion et une amplitude spécifiques. Théoriquement, il pourrait tendre la main et désactiver une puce spécifique, à des gammes de plus grandes gammes qu’une arme micro-ondes haute puissance «You Fly», nous les frit »maintenant au stade de test précoce.
De toute évidence, sans les puces fonctionnelles, l’IA ne fonctionne pas.
L’initiative de développement de l’IA chinois tête baissée pourrait fournir à l’APL un avantage militaire extraordinaire en termes de vitesse et de sophistication d’une future attaque contre la patrie des États-Unis.
Ainsi, la nécessité de développer des contre-mesures d’IA – maintenant – est primordiale.
Pendant la Première Guerre mondiale, le grand ancêtre italien de la puissance aérienne, le général Giulio Douhet, a déclaré très sagement: «La victoire sourit à ceux qui anticipent les changements dans le caractère de la guerre, et non sur ceux qui attendent de s’adapter après les changements.»
En termes de menace posée par l’intelligence artificielle telle qu’elle s’applique à la guerre, les paroles de Douhet ne pourraient pas être plus vraies aujourd’hui.
Chuck de Caro était chercheur de l’IW pour feu Andrew W. Marshall, directeur OSD / NET Assessment; De Caro est l’ancêtre de la première organisation militaire virtuelle au monde, la 1ère unité de softwar conjointe (virtuelle).