18/03/2026 investigaction.net  7min #308124

L'Iran comme laboratoire d'essai pour la guerre par Ia

Marc Vandepitte

Le site d'une frappe américaine contre une école de filles à Minab en Iran (AFP)

La guerre est de moins en moins menée par des humains et de plus en plus par des algorithmes. En Iran, nous voyons comment l'intelligence artificielle accélère le rythme de la destruction à une vitesse sans précédent, avec tous les problèmes moraux que cela implique.

Une vitesse de destruction sans précédent

Les nouvelles guerres sont rarement uniquement militaires. Elles sont aussi des zones de test pour la technologie. La guerre actuelle en Iran sert de terrain d'essai tragique pour des technologies de pointe. Dans ce conflit, nous assistons à un basculement technologique qui, jusqu'à récemment, était impensable.

En seulement quatre jours, le Pentagone est parvenu à frapper plus de  2 000 cibles. Selon Pete Hegseth, le secrétaire à la Défense des États-Unis, l'opération actuelle contre l'Iran était déjà  deux fois plus meurtrière que l'invasion de l'Irak en 2003 et sept fois plus puissante que la guerre de 12 jours contre l'Iran en juin 2025.

Cette énorme accélération est la conséquence directe de l'intégration de systèmes d'IA avancés dans les opérations militaires. Au sein de l'armée américaine, le logiciel constitue une sorte de cerveau numérique pendant les opérations. Le  système dit "Maven" analyse en temps réel les données du champ de bataille et soutient toute la chaîne d'attaque : de l'identification d'une cible jusqu'à l'évaluation des dégâts après une frappe.

Le système combine différents modèles d'IA pour interpréter l'information et formuler des recommandations. L'IA générative, comparable à la technologie que les citoyens utilisent pour le travail de bureau ou dans l'enseignement, aide les commandants à comprendre des données complexes et à prendre des décisions.

Avec ce système, une nouvelle étape qualitative est franchie. La technologie a évolué de la simple synthèse de données vers un raisonnement complexe. Cela permet aux armées d'opérer à une échelle qui était auparavant physiquement impossible pour des planificateurs humains. Le résultat est un rythme d'opérations militaires jamais vu auparavant.

Il est intéressant de noter que le système Maven a été conçu par l'entreprise de logiciels Palantir, fondée par le milliardaire d'extrême droite Peter Thiel. Cet oligarque de la tech est un important bailleur de fonds du président Trump et du vice-président JD Vance.

L'homme comme spectateur de la machine

Un problème crucial dans cette guerre ultra-rapide est le rôle du facteur humain. Bien que les militaires prennent officiellement encore la décision finale, il devient de plus en plus difficile pour eux de contrôler la logique de la machine. Un algorithme effectue des millions de calculs par seconde qu'un humain ne peut pas vérifier.

Des experts avertissent que les militaires se retrouvent ainsi dans une position où ils font aveuglément confiance aux recommandations de l'ordinateur. Il est psychologiquement et pratiquement presque impossible de rejeter une cible générée à très grande vitesse lorsque la justification est cachée dans un système fermé impénétrable. Le contrôle humain devient ainsi une simple formalité administrative.

De plus, l'étape suivante menace d'être encore plus radicale. Certains planificateurs militaires veulent des systèmes d'armes qui opèrent de manière totalement autonome, sans contrôle humain direct : les fameux LAWS (SALA - Systèmes d'Armes Létaux Autonomes).

Les conséquences de cette vision numérique "en tunnel" sont devenues douloureusement visibles en Iran. L'attaque dévastatrice contre une école primaire pour filles à Minab  soulève des questions pressantes sur la vérification des données. Bien que l'enquête soit encore en cours, ce drame illustre le risque mortel de cibles sélectionnées par des algorithmes sans un contrôle humain adéquat.

 Anadolu Agency : Le rythme, d'environ 42 cibles suggérées par heure, a amené les analystes à se demander si la rapidité des systèmes automatisés ne dépasse pas la capacité des humains à vérifier pleinement les cibles.

Des limites morales à l'ère des algorithmes

Outre les risques techniques, il existe une objection morale fondamentale au fait de déléguer les décisions de vie ou de mort. Une machine peut-elle recevoir le pouvoir de décider qui meurt ? Le débat sur les systèmes d'armes létaux autonomes (LAWS) gagne en urgence alors que les États-Unis et la Chine  investissent massivement dans une technologie capable de tuer sans intervention humaine.

Les partisans affirment que l'IA peut réduire les erreurs humaines et ainsi éviter des victimes civiles. La pratique en Iran semble pourtant contredire cela. Avec des  dizaines de milliers de bâtiments endommagés, dont plusieurs milliers d'habitations, la précision de l'IA semble surtout être utilisée pour détruire davantage en moins de temps, plutôt que pour agir avec plus de précaution.

Même les entreprises technologiques freinent - parfois - des quatre fers. Anthropic (l'entreprise derrière le chatbot Claude) a récemment refusé de transférer au Pentagone le contrôle total de ses modèles d'IA pour un usage secret. Cela a conduit à  un conflit dans lequel Washington a de nouveau exclu la technologie de l'entreprise de la chaîne d'approvisionnement militaire.

Nécessité urgente de règles internationales

Le manque de fiabilité des modèles d'IA actuels rend leur utilisation sur le champ de bataille encore plus risquée. Les systèmes sont basés sur des probabilités statistiques et sont sensibles à ce qu'on appelle des "hallucinations" (des erreurs flagrantes). Un système qui invente des informations incorrectes dans un chatbot est ennuyeux, mais dans un système d'armes, les conséquences sont bien pires.

Il est donc grand temps d'instaurer  un moratoire international sur l'utilisation d'armes entièrement autonomes. Le  groupe de travail de l'ONU qui débat de cette question depuis des années doit enfin parvenir à des conclusions contraignantes. Tout comme il existe une interdiction mondiale des armes chimiques et biologiques, nous avons besoin de limites claires pour l'intelligence artificielle en temps de guerre.

Les États-Unis et la Chine, en tant que superpuissances technologiques, portent une énorme responsabilité. Ils doivent conclure des accords pour limiter la diffusion de cette technologie et garantir la responsabilité humaine. La communauté internationale doit exiger que la chaîne d'attaque reste transparente et qu'un humain puisse toujours être tenu responsable pour chaque balle ou missile tiré.

Sans une régulation stricte, nous risquons un avenir dans lequel des essaims de drones bon marché chasseront de manière autonome les êtres humains, un scénario qui pourrait sortir tout droit d'un film dystopique. Chaque nouvelle guerre accélère le développement et le déploiement de l'IA sur le champ de bataille. Sans accords internationaux, un monde menace d'advenir dans lequel les machines décident de plus en plus souvent qui vit et qui meurt.

 investigaction.net