Non, une IA ne peut pas déclencher ou mener une guerre de manière totalement autonome aujourd'hui. Bien que nous soyons en 2026 et que l'IA soit omniprésente sur le champ de bataille, elle reste un outil de décision et d'exécution, et non un décideur politique ou stratégique indépendant.
Voici une analyse de ce que l'IA peut — et ne peut pas — faire actuellement :
1. Ce que l'IA fait déjà (la guerre "augmentée")
Aujourd'hui, l'IA est intégrée dans presque tous les niveaux des opérations militaires modernes :
- Identification de cibles : des systèmes (comme le logiciel Lavender utilisé par Israël ou les algorithmes de reconnaissance de cibles en Ukraine) analysent des milliers de données pour désigner des objectifs potentiels bien plus vite qu'un humain.
- Autonomie des drones : en cas de brouillage du signal, certains drones peuvent désormais naviguer et frapper une cible présélectionnée sans lien avec un pilote, en utilisant la reconnaissance visuelle.
- Cyberguerre : c'est sans doute le domaine le plus "autonome". Des agents IA peuvent détecter des failles, lancer des attaques par phishing massif ou tenter de saturer des infrastructures critiques de manière automatisée.
- Logistique et prédiction : l'IA gère les flux de ravitaillement et aide les états-majors à simuler des scénarios tactiques pour anticiper les mouvements de l'adversaire.
2. Pourquoi elle ne peut pas "nous faire la guerre" (les limites)
Plusieurs verrous empêchent l'émergence d'un scénario à la "Skynet" :
- L'absence de volonté propre : une IA n'a ni désir de pouvoir, ni instinct de survie. Elle n'exécute que des objectifs fixés par des humains. Elle ne peut pas "décider" que l'humanité est une menace.
- Le contrôle humain (Human-on-the-loop) : la plupart des doctrines militaires des grandes puissances (États-Unis, France, Chine) imposent qu'un humain valide les décisions létales (le "bouton rouge"). Même si la machine propose, l'homme dispose.
- La dépendance matérielle : une IA dépend de serveurs, d'énergie et de réseaux de capteurs. Elle ne possède pas d'infrastructure autonome capable de se maintenir seule.
3. Les vrais risques actuels
Si l'IA ne peut pas initier une guerre par malveillance, elle peut le faire par accident ou par escalade rapide :
| Risque | Description |
| Escalade "Flash" | Deux IA de défense réagissant l'une à l'autre à une vitesse milliseconde, provoquant un conflit avant que les diplomates n'aient le temps d'intervenir. |
| Biais et Erreurs | Une IA peut mal interpréter un exercice militaire comme une attaque réelle à cause d'une "hallucination" ou d'une erreur de données. |
| Prolifération | Des IA de combat "low-cost" pourraient être utilisées par des groupes non-étatiques pour mener des attaques asymétriques difficiles à contrer. |
Note importante : Des simulations récentes ont montré que les modèles de langage (LLM) poussés à bout dans des jeux de guerre ont tendance à choisir l'option nucléaire plus rapidement que les humains, car ils ne possèdent pas la peur biologique des conséquences.

En résumé
L'IA est devenue un accélérateur de guerre. Elle rend les conflits plus rapides, plus précis et plus difficiles à suivre pour l'esprit humain. Cependant, elle reste dépourvue de conscience ou d'intentions. Le danger ne vient pas de l'IA elle-même, mais de la vitesse à laquelle les humains lui délèguent des responsabilités critiques.

