Les Israéliens ne sont pas les premiers à déployer des méthodes de ciblage automatisées sur les terrains de guerre. (Photo: Getty Images)
L’armée israélienne affirme que l’intelligence artificielle (IA) l’aide à cibler les combattants du Hamas dans la bande de Gaza en guerre, mais des experts s’interrogent, alors que le nombre de victimes civiles ne cesse de grimper.
Depuis le début de la guerre il y a près de cinq mois, déclenchée par une attaque sanglante du Hamas sur le sol israélien, les opérations militaires israéliennes en représailles ont fait plus de 30 300 morts à Gaza, selon le ministère de la Santé du mouvement islamiste palestinien.
Israël affirme avoir «éliminé 10 000 terroristes». L’armée, qui n’a pas souhaité faire de commentaire supplémentaire, a toujours assuré ne frapper «que des cibles militaires» et prendre «les mesures possibles pour atténuer les dommages aux civils».
«Soit l’IA est aussi performante que ce qui est avancé et l’armée israélienne n’a cure des dommages collatéraux, soit l’IA n’est pas aussi performante qu’on le dit», remarque face à cet écart numérique Toby Walsh, professeur d’Intelligence artificielle à l’Université New South Wales, en Australie, interrogé par l’AFP.
«Attaques précises»
L’armée israélienne revendique avoir mené la «première guerre par l’IA» durant onze jours en mai 2021 à Gaza. Le chef d’état-major à l’époque, Aviv Kochavi, déclarait l’an dernier au site d’information israélien Ynet que l’IA avait permis de générer «100 nouvelles cibles chaque jour», contre «50» par an dans la bande de Gaza «dans le passé».
L’attaque menée le 7 octobre par des commandos du Hamas infiltrés depuis Gaza dans le sud d’Israël a causé la mort d’au moins 1160 personnes, en majorité des civils, selon un décompte de l’AFP réalisé à partir de données officielles israéliennes.
D’après un blogue du site de l’armée, plus de 12 000 cibles ont ensuite été identifiées en 27 jours, grâce à la technologie d’IA nommée Gospel. D’après un responsable cité anonymement, cet outil a sélectionné des cibles «pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l’ennemi, tout en causant à ceux non impliqués le moins de tort possible».
Mais un ancien officier des renseignements israéliens s’exprimant sous couvert de l’anonymat soutenait en novembre au journal d’investigation israélo-palestinien indépendant 972 Magazine que cette technologie était en train de se transformer en «une fabrique d’assassinats de masse».
Citant une source dans les renseignements, le journal rapporte que Gospel avalait quantité de données, plus rapidement que «des dizaines de milliers d’agents du renseignement», et permettait d’identifier en temps réel des sites pouvant être des lieux de résidence de combattants supposés. Le type de données et les critères de ciblage n’étaient pas détaillés.
Plusieurs experts indiquent à l’AFP que l’armée peut nourrir l’outil avec des images venant de drones, des messages sur les réseaux sociaux, des informations recueillies sur le terrain par des espions, des localisations téléphoniques, notamment.
Une fois une cible sélectionnée, la technologie peut utiliser les sources officielles concernant la population pour estimer la probabilité de dommages aux civils.
«Données douteuses»
Mais pour Lucy Suchman, professeur d’anthropologie des sciences et technologies à l’université de Lancaster, au Royaume-Uni, l’idée que davantage de données produirait un meilleur ciblage est fausse.
Les algorithmes sont entraînés pour trouver des motifs répétés dans les données. Chaque motif précédemment identifié comme cible peut donc générer une nouvelle cible, explique-t-elle. Les «hypothèses discutables» dans l’interprétation des données risquent ainsi d’être amplifiées.
«En d’autres termes, plus il y a de données douteuses, plus le système est mauvais», d’après elle.
Les Israéliens ne sont pas les premiers à déployer des méthodes de ciblage automatisées sur les terrains de guerre.
Pendant la guerre du Golfe en 1990-1991, l’armée américaine a eu recours aux algorithmes pour améliorer ses frappes. Elle a aussi travaillé avec les outils d’analyse de données de la société Palantir à l’occasion de la guerre en Afghanistan lancée après les attentats du 11 septembre 2001.
En 1999 au Kosovo, durant la campagne de bombardement des cibles militaires serbes, l’OTAN a commencé à utiliser les algorithmes pour évaluer le nombre de victimes civiles potentielles.
Ces technologies sont-elles, pour autant, dignes de confiance?
Même si l’armée israélienne est «l’une des plus pointues technologiquement», «les chances qu’elle utilise l’IA avec un tel degré de sophistication et d’autonomie sont très faibles», estimait l’analyste Noah Sylvia pour le centre de réflexion britannique sur la défense Rusi, le mois dernier. Et d’ajouter que les humains devraient encore recouper tout résultat.