Crédit image : CNN

« À 5h du matin, [l’armée de l’air] venait et bombardait toutes les maisons que nous avions repérées », a déclaré B., un soldat anonyme de Tsahal. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas traitées une par une — nous avons intégralement automatisé le processus. Dès qu’un de [ces individus marqués] était chez lui, il devenait immédiatement une cible. Nous l’avons bombardé, lui et sa maison. » C’est la réalité de la guerre à Gaza. Israël se sert d’outils d’intelligence artificielle (IA) sophistiqués pour améliorer son renseignement, sa surveillance et ses capacités d’interception (ISR), ce qui lui permet de frapper des cibles dans toute la région. Néanmoins, cette amélioration des capacités militaires soulève des préoccupations éthiques profondes et pourrait avoir des implications géopolitiques. Les frappes aériennes assistées par IA, qui reposent parfois presque exclusivement sur l’évaluation d’un algorithme, peuvent conduire à une négligence des règles fondamentales de la guerre, telles que la discrimination et la proportionnalité. Elles soulèvent des questions sur les erreurs, les biais cognitifs, la dépendance excessive à des évaluations imparfaites et le rôle de la supervision humaine. De plus, alors que ces algorithmes confèrent à Israël un avantage dans ses capacités militaires, ils pourraient contribuer au déséquilibre des forces au Moyen-Orient.

L’arsenal secret d’Israël

L’attrait d’Israël pour l’IA ne date pas d’hier. Le pays utilise des logiciels de reconnaissance faciale alimentés par IA aux points de contrôle en Cisjordanie depuis plusieurs années et a déjà intégré l’IA dans la surveillance des résidents palestiniens de Gaza bien avant le déclenchement du conflit. Israël n’est pas étranger à l’IA en temps de guerre. L’opération « Gardien des murs » en 2021 a été qualifiée de « première guerre IA » par laquelle Tsahal s’est appuyée de manière significative sur l’apprentissage automatique pour identifier et frapper des cibles du Hamas et du Jihad islamique palestinien. Après le 7 octobre, de nouveaux algorithmes et mises à jour ont été développés pour élargir l’arsenal israélien. Plusieurs algorithmes AI ont été identifiés comme les principaux outils utilisés par Israël dans la guerre à Gaza. Évidemment, ces outils sont hautement sensibles et restent classifiés, rendant leur véritable nature et capacité opaques. Cependant, certains éléments sont connus. ‘Gospel’, ‘Where’s Daddy?’ et ‘Lavender’ sont trois algorithmes utilisés de manière significative dans le contexte de la guerre à Gaza pour supporter le ciblage et la prise de décision. Ces algorithmes interagissent pour créer une chaîne de neutralisation affinée et efficace. Ils analysent simultanément des données provenant de toutes les sources ISR, y compris l’imagerie satellite, les séquences de drones, le renseignement d’origine signal (SIGINT) et les informations collectées sur les individus et les groupes. Ces informations sont ensuite synthétisées pour identifier les cibles potentielles pour Tsahal. Bien que ces algorithmes fonctionnent de manière similaire, chacun est spécialement conçu pour sa tâche. Gospel se concentre sur les cibles d’infrastructure, identifiant par exemple les infrastructures militaires suspectées, telles que les sites de lancement de roquettes. Lavender, quant à lui, s’intéresse aux cibles humaines, identifiant des milliers d’individus soupçonnés d’être des membres du Hamas ou du Jihad islamique. Where’s Daddy? suit les individus ciblés et envoie un signal à Tsahal lorsqu’ils entrent chez eux, permettant à des forces spéciales de procéder à des arrestations, ou à des drones de les éliminer.

La réalité trouble de la guerre dirigée par IA

En théorie, les armes activées par IA pourraient favoriser une guerre efficace et minimiser les pertes civiles. Israël a maintes fois affirmé qu’il utilisait des frappes « de précision » et agissait avec une précision chirurgicale. En pratique, c’est tout le contraire qui se produit à Gaza. L’utilisation des algorithmes mentionnés ci-dessus a généré des milliers de cibles, augmentant considérablement les listes de victimes d’Israël. À un moment donné, Lavender a désigné 37 000 Palestiniens comme cibles au début des hostilités. Ce constat, pris à la lettre, suggérerait que le renseignement israélien est simplement devenu plus efficace dans l’identification des militants. Pourtant, l’algorithme Lavender est estimé avoir un taux d’erreur de 10 %. Cela signifie que de nombreuses personnes sur ces listes générées par l’IA ne sont pas des combattants, ce qui a entraîné un nombre tragique de victimes civiles. Les schémas de communication en sont une source commune d’erreurs. Lavender a identifié des civils gazaouis comme militants parce qu’ils partageaient des modèles de communication similaires avec des individus précédemment identifiés comme militants, parfois même l’appartenance à un groupe de discussion signalé suffisant pour provoquer un jugement fatal. Les cibles erronées incluent des policiers, des travailleurs humanitaires, des proches de militants, et des personnes portant le même nom ou surnom. Where’s Daddy? cible spécifiquement les individus dès qu’ils entrent dans leur domicile familial, ce qui entraîne l’élimination de la cible ainsi que la destruction de son foyer.

Cette pratique soulève des questions sérieuses sur la proportionnalité et la discrimination des cibles. Une telle ISR guidée par l’IA peut amener Tsahal à surestimer les dégâts occasionnés — tout cela sous prétexte d’une efficacité accrue au combat. De plus, la dépendance à l’ISR dirigée par IA peut renforcer des biais de confirmation. Une étude de l’NIH a également montré que les opérateurs de drones peuvent connaître un disengagement moral, ne comprenant pas pleinement le niveau de destruction qu’ils entraînent en étant éloignés du théâtre des opérations. Si les outils d’IA désignent une personne ou une structure comme cible, les décideurs qui sont responsables de l’autorisation des frappes créent souvent des raccourcis mentaux et font confiance à l’algorithme, car il est perçu comme fiable. En effet, les soldats de Tsahal agissent souvent comme de simples « tamponneurs » pour les décisions de la machine, consacrant environ 20 secondes à chaque cible avant d’autoriser une frappe aérienne. Ce biais cognitif, qui aboutit à autoriser des frappes sans remettre en question la validité et à se fier à la machine, accentue la nature problématique de la guerre assistée par IA. De plus en plus, ce n’est plus une guerre dirigée par l’IA, mais une guerre contrôlée par l’IA. Dans plusieurs cas, des responsables israéliens non identifiés ont même affirmé que certaines frappes étaient menées sans supervision humaine, ou qu’ils avaient manqué une cible identifiée parce que la frappe n’avait pas été vérifiée en temps réel. Au lieu de soutenir la prise de décision, il semble que ces algorithmes deviennent progressivement les véritables décideurs.

Les implications de la prolifération de l’IA

La guerre n’est pas exempte d’erreurs et les pertes civiles constituent une dure réalité du combat. Cependant, avec son ISR guidé par l’IA, Israël remet en question les normes internationales de la guerre. En s’appuyant sur l’IA, presque en lui accordant une autorité exécutive dans certains cas, Israël compromet des principes de proportionnalité, de distinction et de précaution. Pour donner un aperçu de la manière dont Israël repousse cette limite, on peut considérer les taux de pertes considérés comme acceptables par Tsahal et l’armée américaine. Durant la campagne des États-Unis contre l’État islamique, toute frappe projetée pour causer plus de quinze pertes civiles déviait des procédures normales et nécessitait une autorisation spéciale du chef du Commandement central des États-Unis. En revanche, les algorithmes israéliens estiment généralement que des pertes de 15 à 20 civils lors d’une frappe planifiée contre un militant de bas niveau, et jusqu’à un centaine pour un commandant senior, sont parfaitement acceptables, raison pour laquelle ces frappes sont souvent autorisées sans trop de contrôle. Malgré ces problèmes, la guerre dirigée par l’IA est là pour rester. Les algorithmes d’IA et leur intégration dans les systèmes d’armement ne feront probablement pas face à une interdiction mondiale comprehensive. Ils sont tout simplement trop efficaces et utiles sur le plan militaire. Aucun État ne voudrait se retrouver face à un adversaire capable de prendre des décisions à la vitesse de la machine, un million de fois plus vite que les humains ne peuvent réagir. Cependant, l’approche d’Israël en matière d’IA dans les conflits met en lumière les dangers de cette révolution technologique dans les affaires militaires, ce qui devrait interpeller les décideurs américains et la communauté internationale dans son ensemble.

La guerre assistée par IA contribue à des violations de la Théorie de la Guerre Juste ainsi qu’à ses principes de proportionnalité et de discrimination. Les 42 000 victimes palestiniennes, dont une proportion significative étaient des civils, dont beaucoup d’enfants, témoignent de cet échec éthique abominable. De plus, 59 % des bâtiments, 87 % des écoles et 68 % des routes dans la bande de Gaza ont été endommagés ou détruits. Étant donné que les algorithmes israéliens ont été continuellement déployés depuis le début du conflit, il n’est pas exagéré de suggérer que ces armes ont été déterminantes dans ces statistiques alarmantes. De par leur nature apparemment impartiale et leur efficacité brutale, les algorithmes d’IA contribuent à intensifier et dans une certaine mesure déshumaniser la guerre. Même Tsahal a admis que « la proportionnalité n’existait pas » et que, dans de nombreux cas, il ne prenait pas en compte les dommages collatéraux lors des frappes ciblées, normalisant ainsi des pertes civiles substantielles.

Les questions éthiques en temps de guerre sont souvent tumultueuses. Toutefois, étant donné que l’IA en temps de guerre est encore relativement récente, il existe encore un potentiel pour établir des normes éthiques plus strictes pour cette technologie. Au-delà de l’impératif moral de respecter les lois de la guerre et d’éviter les dommages inutiles, un intérêt est également en jeu pour les États-Unis. Fixer et faire respecter des normes telles que celles énoncées dans la “Déclaration Politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie”, publiée par le Département d’État, impliquerait une moindre probabilité de prolifération de telles capacités assistées par IA, et potentiellement d’être utilisées contre les États-Unis. Israël pourrait être un bon point de départ pour appliquer activement ces normes. Si des alliés des États-Unis ne signent pas la déclaration, les États-Unis devraient garantir la conformité en supprimant l’aide militaire à ces États. Israël n’a pas signé la déclaration, mais au 27 novembre 2024, il l’a du moins approuvée. Néanmoins, l’utilisation d’ISR par Israël et son engagement dans la guerre assistee par IA se poursuivent. Si les États-Unis estiment que le moment est venu d’œuvrer vers une gouvernance internationale de la guerre assistée par IA, restreindre l’utilisation par Israël pourrait être un bon point de départ.

En outre, la guerre assistée par IA pourrait encore déstabiliser les dynamiques de pouvoir au Moyen-Orient et au-delà. Ces technologies sont déjà utilisées à Gaza et probablement au Liban. Étant donné que l’Iran est l’ennemi principal d’Israël et a soutenu des guerres par procuration contre ce pays, Israël pourrait envisager d’utiliser ses capacités d’IA pour cibler la direction iranienne. L’Iran n’a guère de chance face à l’arsenal israélien, et ses mandataires ne possèdent pas les capacités nécessaires pour contrer efficacement les armes d’IA. Couplé aux puissantes capacités conventionnelles d’Israël et à l’efficacité de ses services de renseignement, cela renforce encore l’équilibre régional en faveur d’Israël. Pris dans son ensemble, cela pourrait sembler renforcer la situation sécuritaire d’Israël et empêcher les adversaires de l’attaquer. Néanmoins, étant donné la volatilité de la région et des acteurs impliqués, un comportement israélien excessivement agressif pourrait déclencher des réactions imprévisibles de la part des ennemis régionaux. Si les Iraniens sont poussés trop loin, ils pourraient envisager de se doter d’armements nucléaires pour égaliser les forces. Il est presque impossible de isoler l’effet direct que l’ISR guidée par l’IA a sur l’équilibre des forces régionales. Cependant, on peut affirmer qu’elle confère à Israël un avantage considérable, qu’il pourrait chercher à utiliser pour renforcer sa position au Moyen-Orient. L’IA pourrait ainsi accélérer les dynamiques déjà existantes de bouleversements géopolitiques.

La réalité est que ces armes sont là pour rester. Elles sont extrêmement puissantes, réduisent les risques pour les troupes terrestres et peuvent permettre de gagner des guerres. Le cas israélien n’est pas le seul conflit où ces armes seront présentes. Des algorithmes similaires sont déjà utilisés dans la guerre Russie-Ukraine, et devraient probablement être employés dans de futurs conflits internationaux. Les États ne peuvent tout simplement pas se permettre de rester à la traîne et de ne pas utiliser les avantages que l’IA apporte à la guerre. La nature de la guerre évolue rapidement, et sans une gouvernance mondiale renforcée, il y aura une asymétrie marquée entre les États. Comme l’a montré la guerre à Gaza, une telle asymétrie peut être dévastatrice pour les civils et déstabiliser les dynamiques régionales. Il est crucial que les États-Unis et leurs partenaires et alliés mettent en œuvre une gouvernance mondiale, tel qu’énoncé dans la “Déclaration Politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie”. Les États-Unis devraient envisager de développer et de mettre en œuvre des mécanismes d’application, tels que le retrait de l’aide militaire et des technologies critiques nécessaires à ces systèmes d’IA, envers les États non conformes. Cela pourrait être couplé à des mesures diplomatiques et économiques, en particulier en période de conflit, pour garantir que, même en guerre, les États adhèrent à un cadre éthique. La situation à Gaza montre un aperçu d’un avenir sombre de la guerre assistée par IA. Comme l’a déclaré B., le destin de milliers de vies dépendait d’un système automatisé. La guerre n’est jamais simplement un affrontement, mais elle est profondément personnelle, et retirer ne serait-ce qu’un soupçon d’humanité de cette expérience nous rend tous potentiellement cible.

Ces opinions reflètent celles de l’auteur.

Points à retenir

  • Israël utilise des algorithmes d’IA pour cibler des individus et infrastructures à Gaza, suscitant des préoccupations éthiques.
  • Les erreurs liées aux algorithmes pourraient entraîner des pertes civiles significatives, modifiant la perception des règles de guerre.
  • La dépendance croissante à l’IA pourrait nuire à la supervision humaine des frappes militaires.

Dans une perspective plus large, il serait intéressant de réfléchir aux conséquences éthiques et géopolitiques de la militarisation de l’IA. Alors que la technologie continue d’évoluer, il est essentiel de se demander comment les normes internationales peuvent s’adapter pour prévenir des abus qui pourraient nuire aux populations civiles tout en maintenant la paix régionale.



  • Source image(s) : georgetownsecuritystudiesreview.org
  • Source : https://georgetownsecuritystudiesreview.org/2025/01/09/the-dehumanization-of-isr-israels-use-of-artificial-intelligence-in-warfare/


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *