L’affaire entre Anthropic et le Pentagone ne se résume pas à un différend contractuel. Elle révèle une transformation silencieuse mais décisive du pouvoir dans les démocraties modernes. L’intelligence artificielle n’est plus un simple outil d’optimisation. Elle devient une infrastructure stratégique capable de modifier l’équilibre historique entre l’État et les citoyens.

Les faits
Anthropic, entreprise américaine spécialisée dans les modèles d’intelligence artificielle avancée, collaborait avec le Département de la Défense. Le contrat portait sur la fourniture d’outils d’analyse et d’assistance décisionnelle. Selon les éléments disponibles, le Pentagone aurait souhaité élargir les usages autorisés, notamment vers des applications plus sensibles liées à la surveillance élargie ou à des systèmes militaires intégrant une autonomie accrue. Anthropic aurait refusé d’assouplir ses garde-fous internes, invoquant des limites relatives à la surveillance de masse et aux usages sans supervision humaine significative. Ce désaccord aurait entraîné des tensions contractuelles, avec la perspective d’une réduction ou d’une rupture de la collaboration.
Mais l’essentiel est ailleurs. Ce conflit met en lumière une mutation profonde du rapport de force entre l’État et l’individu à l’ère numérique.
Analyse libertarienne
Il est bien insuffisant, comme le fait Mr Trump, de qualifier les développeurs d’anthropic de « Woke ».
Le Deuxième Amendement de la Constitution américaine garantit le droit de porter des armes. Il n’a pas été conçu comme un simple droit individuel détaché de toute dimension politique. Il repose sur une idée fondatrice : un peuple armé constitue un contrepoids potentiel face à un pouvoir central qui dériverait vers l’abus. À l’époque des Pères fondateurs, la force était symétrique. Les technologies militaires accessibles aux citoyens et celles de l’État n’étaient pas fondamentalement incomparables.

L’intelligence artificielle introduit une rupture radicale. Elle permet la surveillance prédictive, l’analyse comportementale massive, la reconnaissance biométrique automatisée, la corrélation de données issues de multiples sources et l’anticipation statistique des risques. Le pouvoir devient informationnel. Il ne s’exerce plus seulement par la contrainte physique mais par la capacité d’anticiper, de classifier et d’isoler.

Si l’État peut identifier des profils considérés comme à risque, cartographier leurs réseaux, analyser leurs comportements en temps réel et agir avant toute infraction, la question n’est plus seulement celle du droit formel de porter une arme. Elle devient celle de la capacité réelle d’agir. Le Deuxième Amendement protège la possession. L’intelligence artificielle permet la neutralisation préventive.
Donald Trump, ce tribun venu de la gauche, retourne à ses anciennes amours dans cette affaire. Le risque chinois n’est pas une excuse suffisante.
Le risque de grande bascule
Le basculement est silencieux. Autrefois, l’agent public incarnait physiquement l’autorité. Le contrôleur fiscal, par exemple, représentait l’État face au contribuable. Il existait une interaction humaine, une responsabilité visible, et parfois même une forme de prudence née de la confrontation directe. On pourrait dire qu’un fonctionnaire confronté physiquement à ses administrés pouvait, d’une certaine manière, percevoir la tension, la colère ou la résistance sociale.

L’algorithme, lui, n’éprouve rien. Installé dans un data center à des milliers de kilomètres, peut-être en Islande ou ailleurs, il n’a plus rien à craindre de l’Américain moyen. Il calcule, classe et exécute des règles sans perception des conséquences humaines immédiates. Le pouvoir devient distant, impersonnel et potentiellement plus absolu.

Le réel n’a plus d’impact sur le légal !
C’est là que l’affaire Anthropic prend une dimension symbolique. Lorsqu’une entreprise privée refuse certains usages de sa technologie au nom de principes internes, elle exerce un droit fondamental de liberté contractuelle. Dans une économie libre, un fournisseur peut fixer les conditions d’utilisation de son produit. Si l’État souhaite des capacités différentes, il peut développer ses propres outils ou s’adresser à d’autres acteurs volontaires. Ce qu’il ne devrait pas faire, du point de vue libertarien, c’est transformer son pouvoir budgétaire ou réglementaire en instrument de pression pour imposer une extension d’usage que le fournisseur refuse.



