Anthropic abandonne son engagement fondamental en matière de sécurité en plein bras de fer avec le Pentagone

Aerps
Publié le
26/2/2026

Anthropic, le grand rival d’OpenAI qui explose tout dans le monde de l’IA, vient d’assouplir ses règles de sécurité et se dit prêt à développer des modèles qu'il considérait jusque-là comme dangereux. Attachez vos ceintures.

Contexte : Anthropic, c’est la startup IA du moment. Son agent IA Claude Cowork est tellement avancé qu’il fait trembler les investisseurs du monde entier. Même le Pentagone utilise son chatbot, Claude, pour ses projets secrets-défense les + sensibles.

  • Anthropic a toujours mis en avant son approche “éthique” de l’IA et fait passer sa charte privée, “la Constitution de Claude”, avant tout. D’ailleurs, la startup traite son chatbot comme une “entité” à part, et est ouverte à l’idée qu’il soit “conscient” (rien de terrifiant, non).

Problème : Le Pentagone menace d’inscrire Anthropic - qui refusait que Claude soit utilisé pour de la surveillance de masse - sur liste noire si elle ne lui fournit pas un accès sans limite à son IA d’ici vendredi.

  • Traduction ? Soit elle coopère volontairement, soit l’armée invoque le “Defense Production Act” pour lui forcer la main.

La grande question : Anthropic peut-elle vraiment continuer de jouer l’élève modèle dans ce monde de brutes ? Plusieurs concurrents d'Anthropic donneraient un rein pour la remplacer au sein du Pentagone : Alphabet, OpenAI et xAI ont par exemple accepté de lever les restrictions sur l'utilisation de leurs outils d'IA par l'armée…

  • En assouplissant ses règles, Anthropic fait donc tout pour ne pas se laisser distancer par la concurrence, alors qu’elle pourrait bien entrer en Bourse cette année.

Un peu de recul. Ils font peut-être les cowboys, mais aujourd’hui, Anthropic est le seul acteur de l’IA à opérer sur des systèmes militaires classifiés, et le remplacer ne se fait pas en un claquement de doigts. Les versions de Claude validées par le Pentagone ont obtenu des autorisations ultra-spécifiques et tournent sur des infrastructures cloud dédiées. En clair, la dépendance est bien réelle.


Bref. Pour l’instant, Anthropic campe sur ses positions : “Il y a des produits qu’on ne fabriquera pas et des risques que nous ne prendrons pas, même s’ils nous rapporteraient de l’argent.” Reste à voir jusqu’à quand la sécurité du monde passera avant l’envie d’écraser la concurrence.