Pourquoi le rôle de l’humain reste essentiel dans la guerre menée par Israël grâce à l’IA

Suite à la publication de l’article « Lavender » de +972, des experts en droit international et en intelligence artificielle expliquent comment les hauts gradés israéliens et les entreprises technologiques mondiales sont impliqués dans le massacre.

Par Sophia Goodfriend, le 25 avril 2024

Soldats israéliens du 8717ème bataillon de la brigade Givati opérant à Beit Lahia, dans le nord de la bande de Gaza, le 28 décembre 2023. (Yonatan Sindel/Flash90)

La destruction de Gaza par Israël engage une nouvelle ère de guerre. Des cratères engloutissent des complexes résidentiels, des rues entières sont réduites en ruines et des nuages de poussière masquent le soleil. L’armée israélienne a largué plus d’explosifs sur l’enclave de 200km carrés que n’en contenaient les bombes atomiques qui ont décimé Hiroshima et Nagasaki pendant la Seconde Guerre mondiale. L’ ampleur et la densité des destructions rivalisent avec les épisodes de guerre urbaine les plus dévastateurs de l’histoire récente, du Blitz de Londres aux décennies de contre-insurrection au Vietnam.

Pourtant, contrairement à ces guerres du XXème siècle, l’assaut d’Israël sur Gaza est une campagne de massacre fondamentalement high-tech. Au début du mois, des enquêtes publiées dans +972 et Local Call ont révélé le rôle central de l’intelligence artificielle dans les tueries. Selon six officiers de renseignement israéliens, l’armée a utilisé une machine d’IA surnommée « Lavender » pour générer des dizaines de milliers de « cibles humaines » à assassiner au motif qu’elles feraient partie des branches armées du Hamas ou du Djihad islamique palestinien. Ces résultats ont ensuite été introduits dans un système de suivi automatisé connu sous le nom de « Where’s Daddy ? » (« Où est papa ? »), ce qui a permis à l’armée de tuer chaque personne à l’intérieur de son domicile, ainsi que toute sa famille et, souvent, un grand nombre de ses voisins.

Ces révélations font suite à une enquête antérieure menée par +972 et Local Call, qui a mis en lumière un autre système d’IA générateur de cibles appelé « Habsora » (« L’Évangile »). Alors que Lavender génère des cibles humaines, Habsora marque des bâtiments et des structures qui auraient une fonction militaire. Un ancien officier de renseignement a déclaré à +972 que cette technologie permet à l’armée israélienne d’exploiter essentiellement une « usine d’assassinat de masse ».

La dernière enquête a fait des vagues dans la presse internationale, où les journalistes et internautes ont imaginé des scènes de systèmes d’armes alimentés par l’IA dépassant la puissance de leurs opérateurs humains et tuant sur un coup de tête. Cependant, des experts en droit international et en guerre de l’IA ont souligné à +972 que le carnage à Gaza est le résultat de décisions humaines concertées. Outre les hauts gradés des institutions militaires et politiques israéliennes, des pans entiers du secteur technologique civil mondial pourraient être impliqués dans le massacre.

Génération rapide, autorisation rapide

Avec un taux de mortalité quotidien à Gaza plus élevé que dans n’importe quelle autre guerre du XXIème siècle, il semble que les engagements visant à minimiser les pertes civiles dans les assassinats ciblés, pour autant qu’ils aient jamais existé, soient tout simplement passés à la trappe. Selon les sources, les responsables militaires israéliens ont considérablement réduit les critères utilisés pour déterminer quelles cibles pouvaient être tuées à leur domicile, tout en augmentant le seuil des victimes civiles autorisées dans chaque frappe – dans certains cas, ils ont autorisé le meurtre de centaines de civils pour tuer une seule cible militaire de haut rang. Comme l’a déclaré Daniel Hagari, porte-parole de l’armée israélienne, dans les premiers jours de la guerre, l’accent a été mis sur « ce qui cause le maximum de dégâts ».

Une frappe aérienne israélienne dans le camp de réfugiés d’Al-Bureij au centre de Gaza, le 2 janvier 2024. (Oren Ben Hakoon/Flash90)

Pour être clair, Israël ne s’appuie pas sur des armes entièrement autonomes dans la guerre actuelle contre Gaza ; les unités de renseignement utilisent plutôt des systèmes de ciblage alimentés par l’IA pour classer les civils et les infrastructures civiles en fonction de leur probabilité d’être affiliés à des organisations militantes. Cela accélère et élargit rapidement le processus par lequel l’armée choisit qui tuer, générant plus de cibles en un jour que le personnel humain ne peut en produire en une année entière.

La création rapide de cibles entraîne la nécessité d’une autorisation rapide : les officiers de renseignement qui ont parlé à +972 ont admis qu’ils consacraient à peine 20 secondes pour approuver les frappes individuelles, bien qu’ils sachent que Lavender identifie mal les cibles – même selon ses propres critères laxistes – dans environ 10 pour cent des cas. Nombreux sont ceux qui se sont contentés de s’assurer que la personne qu’ils allaient tuer était un homme, transformant ainsi la majeure partie de Gaza en un piège mortel.

« Ce qui m’a frappé dans le rapport [+972], c’est le degré d’autonomie et de fiabilité que les forces armées ont accordé à cette technologie », a déclaré Alonso Gurmendi Dunkelberg, maître de conférences en relations internationales au King’s College de Londres, à +972. « Elle permet à l’armée d’approuver froidement le ciblage systématique d’une population civile. »

Ben Saul, professeur de droit international et rapporteur spécial des Nations Unies sur les droits de l’homme et la lutte contre le terrorisme, a déclaré que la dépendance excessive à l’égard de ces systèmes confère un vernis de rationalité à la dévastation qu’Israël a provoquée à Gaza. Les systèmes dits « intelligents » peuvent déterminer la cible, mais les bombardements sont effectués avec des munitions non guidées et imprécises, parce que l’armée ne veut pas gâcher des bombes coûteuses sur ce qu’un officier de renseignement a décrit comme des « cibles collatérales ».

« Israël a des avocats militaires, un système de justice militaire, des procédures opérationnelles et des règles d’engagement qui sont censées l’aider à respecter les droits de l’homme internationaux », a déclaré M. Saul. « Mais cette guerre est loin de respecter les règles humanitaires de base. »

Des Palestiniens font leurs adieux à leurs proches tués lors de frappes aériennes israéliennes, à l’hôpital Al-Najjar dans la ville de Rafah, dans le sud de la bande de Gaza, le 21 avril 2024. (Abed Rahim Khatib/Flash90)

Les Nations Unies, les groupes de défense des droits de l’homme et de nombreux gouvernements ont averti qu’Israël enfreignait continuellement le droit international en matière de droits de l’homme ainsi que les principales dispositions des conventions de Genève et de La Haye, dont il est signataire. Chacun de ces traités interdit l’assassinat systématique et délibéré de civils. Mais les juristes affirment que ces systèmes de haute technologie ont favorisé un mépris systémique du droit international au cours des six derniers mois et demi de guerre, durant lesquels Israël a tué plus de 34 000 Palestiniens, en a blessé plus de 76 000, et 11 000 autres sont toujours portés disparus.

Réduire les Palestiniens à des chiffres

Le fait que ces machines soient actionnées et exploitées par des personnes réelles a de graves implications pour les responsables militaires israéliens. Lavender et Where’s Daddy ? sont peut-être présentés comme des systèmes alimentés par l’IA, mais même les chefs militaires israéliens affirment qu’ils n’agissent pas de manière autonome : une chaîne de commandement concertée dicte la manière dont ces technologies sont mises en œuvre. Zach Campbell, chercheur principal en surveillance à Human Rights Watch, a déclaré à +972 : « Oui, cette technologie est problématique, mais il s’agit aussi de savoir comment ces systèmes sont utilisés. Et cette utilisation relève de décisions humaines. »

Les représentants du gouvernement israélien ont clairement exprimé leurs intentions après les terribles événements du 7 octobre. Dans les premiers jours de la guerre, le président israélien Isaac Herzog a proclamé qu’il n’y avait « pas de civils innocents à Gaza » et les ministres ont déclaré que la guerre était le début d’une nouvelle « Nakba« . D’autres hommes politiques ont appelé à « raser » toute la bande de Gaza. Des bombes de 900kg ont détruit des quartiers entiers, des bulldozers ont rasé des écoles et des hôpitaux, et des pans entiers de la bande de Gaza ont été considérés comme des zones où régnaient le »permis de tuer« . Ces ordres s’inscrivent dans le cadre des efforts déployés depuis des années pour transformer l’armée israélienne en ce que le sociologue Yagil Levy a récemment appelé « une armée génératrice de mort ».

« Le problème n’est pas l’IA », a déclaré à +972 Brian Merchant, un journaliste spécialisé dans la technologie qui enquête sur le développement effréné des systèmes d’IA. « Le problème, c’est ce que l’IA permet aux armées de faire. Elle fournit une justification pour être plus violent, pour être plus négligent, pour affirmer un programme qu’ils avaient déjà ou qu’ils cherchent un prétexte pour justifier. »

Mona Shtaya, chercheuse non résidente à l’Institut Tahrir pour la politique au Moyen-Orient, a déclaré que c’était le cas depuis longtemps en ce qui concerne la stratégie militaire israélienne vis-à-vis des Palestiniens ; Lavender n’est que la plus récente d’une longue liste d’armes alimentées par des algorithmes dans l’arsenal d’Israël.

Des membres de la défense civile palestinienne cherchent des corps sous les décombres après une frappe aérienne israélienne, dans la ville de Rafah, au sud de la bande de Gaza, le 21 avril 2024. (Abed Rahim Khatib/Flash90)

Par exemple, les algorithmes de la police et les systèmes de reconnaissance faciale examinent des tonnes de données provenant de nombreuses sources, y compris les réseaux sociaux, les données des téléphones portables et les images de drones. Comme Lavender, ces systèmes utilisent les données pour attribuer aux Palestiniens une note de sécurité. Cette note peut alors déterminer qui doit être détenu à un point de contrôle à Hébron, arrêté à l’extérieur de la mosquée Al-Aqsa ou tué lors d’une attaque de drone à Gaza.

« Ces systèmes transforment les Palestiniens en données chiffrées », a déclaré M. Shtaya à +972. « Ils permettent aux autorités de nous évaluer, de nous déshumaniser, de ne pas penser au fait que nous sommes des personnes, mais de justifier notre mort sur la base d’une statistique. C’est la raison pour laquelle nous avons vu la violence augmenter depuis qu’Israël a commencé à s’appuyer sur ces systèmes ».

Selon M. Shtaya, les systèmes de ciblage alimentés par l’IA sont le résultat naturel de l’investissement effréné d’Israël dans la surveillance de masse. « C’est le cycle du développement technologique en Palestine. Chaque système est plus dangereux. »

Une chaîne d’approvisionnement algorithmique

L’utilisation abusive de l’IA peut être ancrée dans les politiques militaires, mais elle implique également de larges pans de l’industrie technologique civile.

Les systèmes de ciblage alimentés par l’IA reposent sur des masses de données de surveillance extraites et analysées par des start-ups privées, des conglomérats technologiques mondiaux et des techniciens militaires. Les techniciens des complexes de bureaux de la Silicon Valley conçoivent les bases de données Google Image que les troupes israéliennes utilisent pour détenir les civils fuyant les bombardements aériens. Les algorithmes de modération de contenu déterminés par les dirigeants de Meta à New York aident les systèmes de police à trier les civils en fonction de leur probabilité de rejoindre des groupes militants. Des sociétés de sécurité basées à Petah Tikvah transfèrent le contenu de téléphones portables à des techniciens militaires qui établissent des listes d’assassinats.

La dépendance d’Israël à l’égard des produits issus de la technologie civile pour mener à bien ses opérations meurtrières est en contradiction avec de nombreuses politiques et conditions d’utilisation émises par les entreprises avec lesquelles il collabore. Le mois dernier, le New York Times a révélé que l’armée israélienne utilisait une base de données Google Images pour identifier et trier les civils dans la bande de Gaza. Cheyne Anderson, ingénieur logiciel chez Google et membre du groupe No Tech for Apartheid, une coalition de travailleurs du secteur technologique opposés aux contrats avec l’armée israélienne, a déclaré à +972 qu’il s’agissait d’une grave utilisation abusive de la technologie de Google.

Des employés de Google et d’Amazon protestent contre la collaboration de leurs entreprises avec l’armée israélienne lors du sommet annuel d’Amazon Web Services à New York, le 26 juillet 2023. (X/No Tech For Apartheid)

« Ces systèmes ne sont pas conçus pour être utilisés sur les champs de bataille du Moyen-Orient, où la vie ou la mort est en jeu ; ils sont entraînés à prendre des photos de famille », a expliqué M. Anderson. « Amener quelque chose comme cela dans une zone de guerre… Cela va directement à l’encontre de nos règles de confidentialité et de nos règles d’utilisation ». En effet, les règles de confidentialité de Google stipulent que les utilisateurs doivent donner leur « consentement explicite pour partager toute information personnelle sensible » avec des tiers. Dans le cadre de ses protocoles relatifs aux activités dangereuses et illégales, Google prévient que Google Photos ne peut être utilisé « pour promouvoir des activités, des biens, des services ou des informations qui causent un préjudice grave et immédiat à des personnes ».

Malgré des violations évidentes des règles établies, Google et d’autres conglomérats technologiques n’ont pas empêché l’armée israélienne d’utiliser leurs produits dans la guerre actuelle contre Gaza ou au cours des décennies de domination militaire d’Israël sur les territoires palestiniens occupés. Nombre de ces entreprises privées tirent profit de cet échange, car les civils palestiniens qui n’ont pas droit à une protection élémentaire de leur vie privée offrent une quantité illimitée de données qui permettent aux entreprises de surveillance d’affiner leurs produits. « Ces entreprises font partie d’une vaste chaîne d’approvisionnement algorithmique qui est au cœur de la guerre aujourd’hui », a déclaré Matt Mahmoudi, chercheur à Amnesty International, à +972. « Pourtant, elles n’ont pas agit. »

À mesure que la liste des abus israéliens à Gaza s’allonge, ces entreprises peuvent être légalement impliquées dans les violations systématiques du droit international par Israël. « Il s’agit d’une mise en garde pour toutes les entreprises », a déclaré M. Mahmoudi. « Non seulement elles violent le droit international des droits de l’homme, non seulement elles risquent de nuire à leur réputation, mais elles risquent aussi d’être reconnues coupables d’avoir aidé et encouragé quelque chose qui sera certainement classé comme un crime grave en temps voulu. »

Les accusations de crimes de guerre n’ont pas empêché les responsables militaires israéliens de promettre que l’effusion de sang permettra de réaliser des progrès sans précédent dans le domaine de la guerre assistée par ordinateur. Lors de la journée annuelle de l’IA organisée par l’université de Tel-Aviv en février, le général de brigade Yael Grossman, commandant de l’unité Lotem, a déclaré à un parterre de dirigeants civils et militaires de l’industrie technologique que l’armée continuait à mettre en place des systèmes d’avant-garde. « Les obstacles nous permettent de nous améliorer », a-t-elle déclaré. « Cela nous permet de nous développer beaucoup plus rapidement et d’être plus évolutifs avec les différentes solutions que nous fournissons sur le champ de bataille. »

De tels slogans ont toujours rallié les gouvernements occidentaux et les conglomérats technologiques aux prouesses militaires israéliennes. Mais aujourd’hui, le vent est peut-être en train de tourner. Les gouvernements occidentaux ont commencé à envisager de suspendre leurs ventes d’armes, et les employés de Google et d’autres grands conglomérats technologiques se révoltent contre les contrats passés par leurs employeurs avec l’armée israélienne. Face au mépris d’Israël pour les réglementations internationales, M. Shtaya estime que ce changement radical est peut-être le seul espoir de régner sur les systèmes d’armement émergents.

« Ce qui se passe en Palestine n’est pas limité à [l’armée israélienne] », a expliqué M. Shtaya. « L’utilisation abusive de ces systèmes est un problème mondial. »

Sophia Goodfriend est doctorante en anthropologie à l’université de Duke et s’intéresse aux droits numériques et à la surveillance numérique en Israël et en Palestine.

Source : +972

Traduction ED pour l’Agence Média Palestine

Retour haut de page