Guerre Israël-HamasIsraël accusé d’utiliser l’IA à Gaza: le chef de l’ONU «perturbé»
Deux médias dénoncent l'utilisation de l'intelligence artificielle pour identifier et frapper des cibles à Gaza. Des accusations qui provoquent de vivent réactions.
Deux médias israéliens accusent Israël d’utiliser l’intelligence artificielle (IA) pour identifier et frapper des cibles à Gaza, provoquant un très grand nombre de victimes civiles, des accusations qui ont provoqué une vive réaction vendredi du secrétaire général de l’ONU.
«Je suis profondément perturbé par les informations disant que la campagne de bombardements de l’armée israélienne inclut l’intelligence artificielle comme outil pour identifier des cibles, particulièrement dans des zones résidentielles densément peuplées, conduisant à un nombre élevé de victimes civiles», a déclaré Antonio Guterres à la presse.
«Aucune portion de décisions de vie ou de mort qui ont un impact sur des familles entières ne devrait être déléguée au calcul froid d’algorithmes.»
L’enquête publiée par les médias «+972 Magazine» et «Local Call» décrit un programme de l’armée israélienne baptisé «Lavender», qui utilise l’IA pour identifier des cibles à Gaza, avec une certaine marge d’erreur.
Selon ces médias indépendants, qui s’appuient sur six «officiers de renseignement israéliens», le programme «a joué un rôle central» pendant les premières semaines des bombardements israéliens sur la bande de Gaza. Les militaires, selon eux, «traitaient les productions de la machine d’intelligence artificielle ‹comme si c’était une décision humaine›».
Selon deux des sources citées, l’armée a aussi décidé que pour chaque membre «junior» du Hamas détecté par «Lavender», il était «permis» de tuer, comme victimes collatérales, 15 à 20 civils. Le ratio montait à 100 civils pour un commandant du mouvement islamiste palestinien.
«Contrairement aux accusations, l’armée israélienne n’utilise pas de système d’intelligence artificielle pour identifier des opérateurs terroristes ou essayer de prédire quelle personne est un terroriste», a répondu vendredi l’armée israélienne aux questions de l’AFP, admettant simplement l’existence d’une «base de données».
Israël mène une vaste opération militaire dans la bande de Gaza depuis l’attaque sans précédent du 7 octobre, menée par des commandos du Hamas, qui a entraîné la mort de 1170 personnes côté israélien, en majorité des civils, selon un décompte de l’AFP réalisé à partir de chiffres officiels israéliens.
Selon un dernier bilan vendredi du ministère de la Santé du Hamas, la campagne de bombardements intenses sur Gaza, suivie d’une offensive terrestre de l’armée israélienne, a fait 33'091 morts, majoritairement des civils.
«Apocalyptique»
«L’IA devrait être utilisée comme une force du bien, au bénéfice du monde, et non pas contribuer à la guerre à un niveau industriel, brouillant la responsabilité», a insisté Antonio Guterres.
Israël ne cache pas travailler à des outils d’IA dans son armée. L’armée revendique avoir mené la «première guerre par l’IA» durant onze jours en mai 2021 à Gaza. Le chef d’état-major à l’époque, Aviv Kochavi, déclarait l’an dernier au site d’information israélien Ynet que l’IA avait permis de générer «100 nouvelles cibles chaque jour», contre «50» par an dans la bande de Gaza «dans le passé».
D’après un blog du site de l’armée israélienne, plus de 12.000 cibles avaient ensuite été identifiées en 27 jours, grâce à une technologie nommée Gospel. Selon un responsable cité anonymement, cet outil a sélectionné des cibles «pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l’ennemi, tout en causant à ceux non impliqués le moins de tort possible».
Mais un ancien officier des renseignements israéliens s’exprimant sous couvert de l’anonymat soutenait en novembre au +972 Magazine que cette technologie était en train de se transformer en «une fabrique d’assassinats de masse».
Interrogé par l’AFP, Alessandro Accorsi, expert pour l’organisation de résolution des conflits Crisis Group, a jugé l’information «très inquiétante».
«C’est apocalyptique. Il est clair que le système peut halluciner, que le degré de contrôle humain est bas», a-t-il relevé. «Il y a des milliers de questions autour de ça à l’évidence, à quel point c’est moral de l’utiliser, mais ce n’est pas surprenant.»
Pour Johann Soufi, avocat international et ex-directeur du bureau juridique de l’Unrwa (l’agence onusienne pour les réfugiés palestiniens) à Gaza, ces méthodes «violent tous les principes cardinaux du droit international humanitaire», dont la distinction entre combattants et civils, la précaution et la proportionnalité.
Elles «constituent indiscutablement des crimes de guerre», a-t-il dénoncé sur X, posant même la question de «crimes contre l’humanité, tant le ratio (20 civils tués/1 combattant junior, et 100/1 commandant) suggère une volonté d’attaquer de manière systématique et généralisée la population civile gazaouie».