L’intégration rapide de l’intelligence artificielle dans les conflits contemporains bouleverse profondément les équilibres militaires et juridiques. De la guerre en Ukraine aux tensions impliquant Iran, en passant par les opérations de Israël à Gaza, l’IA transforme la manière dont les décisions sont prises, les cibles identifiées et les opérations conduites.
Sur le terrain, les effets sont déjà mesurables. Les drones dotés de capacités autonomes améliorent significativement l’efficacité des frappes, avec des taux de réussite pouvant atteindre 70 à 80 %, contre 10 à 20 % auparavant. L’intelligence artificielle permet également d’accélérer le traitement des données, d’élargir la connaissance du champ de bataille et de réduire les délais de décision autant d’avantages stratégiques dans des environnements de guerre de plus en plus complexes.
Mais cette montée en puissance technologique pose une question centrale : qui décide des règles ? À ce jour, aucun cadre juridique international spécifique ne régit explicitement l’usage de l’IA dans les conflits armés. Les États s’appuient sur le droit international humanitaire existant, qui impose des principes généraux tels que la distinction, la proportionnalité et la responsabilité. Toutefois, ces règles ont été conçues bien avant l’émergence de systèmes autonomes capables de participer à des décisions létales.
Pour des experts comme Netta Goussac, le défi ne réside pas seulement dans l’absence de normes spécifiques, mais aussi dans le manque de transparence. Les États communiquent peu sur leurs capacités réelles, les conditions d’utilisation de l’IA et les mécanismes de contrôle mis en place. Cette opacité alimente les inquiétudes, notamment quant aux conséquences humanitaires de ces technologies.
Officiellement, la plupart des armées défendent le principe du « human-in-the-loop », c’est-à-dire le maintien d’un contrôle humain sur les décisions finales d’engagement. En pratique, cependant, l’automatisation croissante brouille cette frontière. À mesure que les systèmes deviennent plus autonomes, la distinction entre décision humaine et exécution algorithmique devient de plus en plus difficile à tracer.
Face à ces enjeux, des initiatives émergent sur la scène internationale. Au sein de l’Organisation des Nations unies, des discussions sont en cours depuis plusieurs années pour encadrer, voire interdire, les armes autonomes létales souvent qualifiées de « robots tueurs ». Le Groupe d’experts gouvernementaux (GGE) travaille sur ces questions, mais les avancées restent limitées, freinées par les divergences entre grandes puissances.
Des organisations comme Human Rights Watch alertent sur les risques d’une délégation excessive de la décision de tuer à des machines. Pour des analystes tels que Ingvild Bode, l’IA ne se limite déjà plus aux systèmes d’armes : elle influence désormais l’ensemble du processus décisionnel militaire.
Ainsi, le développement de l’IA dans la guerre avance plus vite que sa régulation. Entre compétition stratégique, innovation technologique et absence de consensus international, le champ de bataille du futur se construit sans cadre clair.
La question n’est donc plus seulement de savoir comment l’IA sera utilisée, mais qui aura le pouvoir et la légitimité d’en fixer les limites.





























