Un divorce et une guerre en quelques heures
C’est une histoire de timing qui soulève bien des questions. Le 27 février, le président Donald Trump ordonnait à toutes les agences gouvernementales américaines de rompre les ponts avec la firme d’intelligence artificielle Anthropic. Sur sa plateforme Truth Social, le message était sans équivoque : « Nous n’en avons pas besoin, nous n’en voulons pas et nous ne travaillerons plus avec eux ». Une décision radicale, assortie d’une période de transition de six mois pour se défaire des technologies de l’entreprise.
Pourtant, à peine quelques heures après cette annonce tonitruante, une vaste opération militaire était lancée par les États-Unis, en collaboration avec Israël, contre l’Iran. L’ironie de la situation ? Au cœur du dispositif d’attaque se trouvait Claude, le robot conversationnel créé par cette même société Anthropic que la Maison-Blanche venait de répudier publiquement. Comment une technologie bannie un jour peut-elle devenir un outil de guerre indispensable le lendemain ?
Maven et Claude, le duo technologique au cœur des frappes
Pour frapper un millier de cibles en seulement 24 heures, l’armée américaine s’est appuyée sur un système informatique de pointe. Baptisé Maven Smart System, cet outil a été mis au point par Palantir, une société spécialisée dans l’analyse de données à grande échelle. Sa mission : digérer et analyser des volumes colossaux d’informations. Celles-ci proviennent de sources multiples, comme les images satellites, les renseignements collectés sur le terrain ou encore les cartes géographiques détaillées.
C’est ici qu’intervient Claude, l’intelligence artificielle d’Anthropic. Le robot conversationnel est directement intégré au système Maven. Son rôle est crucial : à partir de la montagne de données compilées par le système, Claude est capable de suggérer les cibles les plus pertinentes à attaquer. Il agit comme un assistant d’analyse surpuissant, accélérant drastiquement le processus de décision militaire.
Une collaboration qui tourne à la confrontation
La relation entre Anthropic et le département de la Défense n’est pas nouvelle. L’intégration de Claude au sein du système Maven a débuté dès 2024, et un contrat officiel a été signé en 2025. Anthropic était donc parfaitement au courant de l’utilisation militaire de sa création. Cependant, en janvier dernier, le ton a changé. La firme a commencé à demander des précisions sur l’emploi de sa technologie par l’armée.
Des informations avaient en effet révélé que Claude avait été impliqué dans l’opération menée au Venezuela visant à capturer le président Nicolás Maduro. Face à cette situation, Anthropic a posé ses conditions la semaine dernière. La société a exigé que sa technologie ne soit jamais utilisée pour deux applications spécifiques : la surveillance de masse des citoyens américains et le déploiement d’armes fonctionnant de manière entièrement autonome.
La ligne rouge et la réponse de Washington
Cette demande d’Anthropic a provoqué l’ire de la Maison-Blanche. Le secrétaire américain à la Défense, Pete Hegseth, a clairement exprimé sa volonté de voir les forces armées utiliser des systèmes d’IA comme Claude sans aucune restriction. Le refus d’Anthropic d’accepter ces termes a directement conduit à la décision de Donald Trump de mettre fin à leur collaboration le 27 février.
Mais l’utilisation de Claude pour les frappes en Iran viole-t-elle l’accord initial ? La frontière semble floue. La semaine dernière, le responsable de la technologie au Pentagone, Emil Michael, s’exprimait sur la chaîne CBS. Il assurait que l’armée utilisait déjà ces systèmes en conformité avec la loi américaine, qui interdit la surveillance de masse des citoyens. « Rendu à un certain niveau, vous devez faire confiance à votre armée pour qu’elle fasse la bonne chose », avait-il déclaré.
Cependant, il avait aussi justifié le refus des autorités de s’engager par écrit sur les limites demandées par Anthropic. « Mais nous devons nous préparer pour l’avenir », avait ajouté Emil Michael, laissant la porte ouverte à des usages futurs plus controversés, comme la surveillance de masse ou les armes autonomes.
Une responsabilité partagée entre créateurs et militaires
Pour Sarah Kreps, spécialiste des nouvelles technologies à l’Université Cornell, la situation est complexe mais prévisible. Selon elle, « les entreprises qui choisissent de travailler avec des entrepreneurs de la défense et le département de la Défense doivent s’attendre à ce que leurs technologies soient utilisées dans des systèmes militaires opérationnels. C’est l’objectif de bon nombre de ces programmes ».
Elle précise sa pensée : « Lorsqu’un logiciel est intégré à une plateforme de défense, en particulier une plateforme conçue pour le ciblage ou l’analyse du champ de bataille, il devient inévitablement partie intégrante des décisions liées à la guerre ». Néanmoins, cela n’exonère pas les développeurs d’IA de leur responsabilité. Sarah Kreps estime que ces clarifications sur l’utilisation des technologies doivent être négociées en amont, avant leur intégration dans les plateformes militaires. Le problème est que l’intégration de l’IA dans les infrastructures de défense se fait à un rythme si rapide que l’influence des développeurs s’en trouve fortement diminuée.
Pendant la crise, la concurrence et le public choisissent leur camp
Ce conflit entre Anthropic et le gouvernement américain va-t-il nuire à l’entreprise ? Si certains concurrents y voient une opportunité, le public, lui, semble avoir fait son choix. Au moment même où Donald Trump répudiait Anthropic, son principal rival, OpenAI, concluait un accord avec le département de la Défense. Lors d’une réunion interne mardi, le PDG d’OpenAI, Sam Altman, aurait même indiqué, selon une source du Washington Post, que l’agence fédérale ne souhaitait pas que son entreprise exprime d’opinion sur le bien-fondé des actions militaires.
Malgré cette manœuvre concurrentielle, les citoyens américains paraissent soutenir la position d’Anthropic. Un indicateur clé le démontre : au cours de la dernière semaine, l’application mobile du robot Claude a, pour la toute première fois, dépassé celle de son concurrent ChatGPT (développé par OpenAI) en nombre de téléchargements aux États-Unis. Un signal fort envoyé par le grand public.
Selon la source : lapresse.ca