9.9 C
Alger
vendredi, février 20, 2026

Anthropic et le Pentagone, un bras de fer sur l’usage militaire de l’IA

A la Une

Rédaction ALG247
Rédaction ALG247https://alg247.com
La rédaction d’ALG247 est un collectif éditorial spécialisé dans l’analyse et la couverture de l’actualité internationale, géopolitique et économique. Les articles sont produits selon une méthodologie journalistique fondée sur le recoupement des sources, la contextualisation et la hiérarchisation de l’information.

Anthropic et le Pentagone, un bras de fer sur l’usage militaire de l’IA

La start-up Anthropic et le département américain de la Défense s’opposent sur les conditions d’utilisation de ses modèles d’intelligence artificielle, notamment pour les armes autonomes et la surveillance de masse. Ce différend menace un contrat stratégique de 200 millions de dollars et illustre les tensions croissantes entre impératifs de sécurité nationale et garde-fous éthiques dans l’IA générative.

Un contrat majeur remis « sous revue »

Anthropic, jeune pousse de l’IA fondée il y a cinq ans, est engagée dans un partenariat d’ampleur avec le département américain de la Défense (DoD). Cet accord d’environ 200 millions de dollars vise à déployer ses modèles pour des usages de renseignement et d’analyse au bénéfice de l’armée américaine. L’entreprise est ainsi devenue la seule société d’IA dont les modèles sont intégrés, à ce jour, aux réseaux classifiés du Pentagone, avec des versions adaptées aux clients de la sécurité nationale.

Pourtant, selon des responsables de la Défense cités par la presse américaine, cette relation est désormais « sous revue ». Le Pentagone envisage même d’y mettre fin, en raison d’un désaccord persistant sur les conditions d’utilisation de ces outils. Au cœur du conflit : la volonté d’Anthropic d’encadrer strictement certaines applications, face à la revendication du DoD d’une liberté totale pour « tous les usages légaux » relevant de la mission militaire.

Ce durcissement survient alors que le ministère accélère l’intégration de l’IA générative dans ses opérations, via un programme pilote impliquant aussi OpenAI, Google et xAI. La menace d’une rupture ne se limite pas à un enjeu commercial : elle questionne la place des garde-fous éthiques au sein de l’appareil de sécurité américain.

Armes autonomes, surveillance : les lignes rouges d’Anthropic

D’après des informations concordantes de CNBC, Reuters, Axios et du New York Times, Anthropic a posé deux lignes rouges dans ses négociations avec le Pentagone. D’abord, l’interdiction d’utiliser ses modèles pour des armes autonomes dépourvues de contrôle humain significatif. Ensuite, l’interdiction de les employer pour une surveillance de masse des citoyens américains. L’entreprise juge ces domaines particulièrement risqués, tant pour les droits fondamentaux que pour la stabilité démocratique.

En janvier, le directeur général d’Anthropic, Dario Amodei, l’avait résumé dans un texte : « l’usage de l’IA pour la surveillance de masse domestique et la propagande » est « entièrement illégitime ». Il avait aussi averti des dangers des systèmes d’armes automatisés, qui pourraient, même dans des régimes démocratiques, se retourner contre leurs propres populations. Ces positions doctrinales guident aujourd’hui les exigences posées au Pentagone, présentées comme une condition de collaboration « responsable » avec le secteur de la défense.

Un porte-parole d’Anthropic confirme des discussions « productives » et « de bonne foi » avec le département, pour « traiter correctement ces questions complexes ». La société réaffirme sa détermination à soutenir la sécurité nationale américaine, sans contester la coopération militaire en soi. Elle refuse simplement un chèque en blanc sur les cas d’usage les plus sensibles.

Un Pentagone décidé à lever les restrictions

Le département de la Défense campe sur une position inverse. Selon plusieurs responsables interrogés par les médias américains, il veut employer les grands modèles d’IA « pour tous les usages licites » : développement d’armements, collecte de renseignement ou opérations sur le champ de bataille. Pour le Pentagone, une entreprise ne saurait bloquer, par des clauses contractuelles, certains emplois dans des situations critiques.

Emil Michael, sous-secrétaire à la Défense chargé de la recherche et de l’ingénierie, l’a expliqué lors d’un sommet en Floride : un fournisseur réfractaire pose un « problème ». Si l’armée s’habitue à un modèle d’IA pour être ensuite empêchée de l’utiliser en urgence, sa capacité opérationnelle en pâtirait gravement.

Cette logique s’inscrit dans une stratégie plus large : ouvrir les réseaux, y compris classifiés, aux outils des grands laboratoires d’IA américains, pour conserver un avantage sur les puissances rivales. Un haut responsable anonyme précise qu’au moins un concurrent a déjà accepté des conditions couvrant tous les systèmes, sensibles compris. La pression sur Anthropic s’en trouve accrue.

Acteurs en présence et rapports de force

Anthropic n’est pas seule sur ce terrain. OpenAI, Google et xAI ont aussi décroché des contrats avec le Pentagone pour des modèles d’IA à usage militaire, notamment sur des systèmes non classifiés. Ces rivaux ont consenti à une utilisation pour la gamme complète des « usages légaux », sans interdit sur les armes autonomes ou la surveillance.

Le contexte politique pèse lourd. L’administration Trump, de retour au pouvoir, a critiqué Anthropic ces derniers mois. David Sacks, capital-risqueur chargé des dossiers IA et cryptomonnaies dans l’équipe présidentielle, a notamment fustigé une « IA woke » en raison de ses régulations et garde-fous. Cette hostilité complique la défense des lignes rouges éthiques face à un exécutif partisan d’une IA de défense plus offensive.

Les tensions ont culminé avec un épisode rapporté par le New York Times : la technologie d’Anthropic aurait servi, en janvier, à une opération militaire visant à capturer le président vénézuélien Nicolás Maduro. Un dirigeant de la start-up aurait interrogé un responsable de Palantir sur une éventuelle implication de son modèle, alertant le partenaire du Pentagone et ravivant les frustrations militaires.

Enjeux éthiques, industriels et sécuritaires

Ce différend dépasse Anthropic et cristallise un débat majeur : jusqu’où les fournisseurs d’IA peuvent-ils contrôler les usages de leurs modèles une fois intégrés aux dispositifs de défense ? Les militaires invoquent la supériorité technologique et opérationnelle des États-Unis, face à la Chine et d’autres rivaux, en minimisant les contraintes des industriels.

Des experts de la sécurité et des technologies répliquent que des garde-fous sur les armes autonomes et la surveillance de masse sont indispensables pour éviter des dérives irréversibles. Une chercheuse citée par le New York Times note que des militaires utilisent déjà les outils d’Anthropic pour des finalités « utiles et légitimes ». Une rupture les priverait d’une solution avancée, sans trancher la question des limites éthiques.

L’enjeu industriel est crucial : si le Pentagone qualifiait Anthropic de « risque pour la chaîne d’approvisionnement », ses fournisseurs devraient certifier ne pas utiliser ses modèles – un label habituellement réservé aux entreprises adverses. Ce coup porterait un préjudice sévère à la start-up sur le marché américain, tout en alertant les acteurs tentés de poser des limites similaires.

Scénarios immédiats et suite des discussions

Les négociations se poursuivent, malgré l’exaspération affichée du Pentagone face au refus d’Anthropic d’accepter les conditions standard d’« usages pour toutes fins légales ». Le ministère se tourne déjà vers d’autres prestataires : un concurrent s’apprête à intégrer ses modèles sur des systèmes classifiés, préparant un possible remplacement.

Plusieurs issues se profilent : un accord avec garde-fous ciblés et marges de manœuvre préservées pour le Pentagone ; une rupture, au risque de perdre un outil déployé ; ou un statu quo, avec partenariat limité pendant les pourparlers sur les usages interdits.

Le département de la Défense et Anthropic affirment publiquement vouloir un terrain d’entente. Le premier insiste sur « la victoire dans tout conflit et la protection de la population américaine ». La seconde réaffirme son engagement sécuritaire dans un cadre responsable. Quelle que soit l’issue, elle fera date pour les relations futures entre laboratoires d’IA et États, alors que ces technologies deviennent centrales en défense et sécurité intérieure.

ALG247.COM

-- Publicité --

- Advertisement -

Plus d'articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

-- Publicité --

- Advertisement -

NOUVEAUTÉS