Au cours de l’année écoulée, Israël a utilisé l’IA comme arme dans son génocide à Gaza, en déployant des systèmes de surveillance et de ciblage automatisés qui ont tué des dizaines de milliers de personnes. La participation d’Israël au premier traité mondial sur l’IA soulève de sérieuses questions.
Il est profondément troublant qu’Israël ait été autorisé à adhérer au premier traité mondial sur l’intelligence artificielle (IA) – un accord destiné à réglementer l’utilisation responsable de l’IA tout en respectant les droits de l’homme, la démocratie et l’État de droit. Pendant 11 mois consécutifs, Israël a utilisé l’IA comme arme dans son génocide à Gaza, déployant des systèmes de surveillance et de ciblage automatisés qui ont infligé des dommages dévastateurs aux civils. Pourtant, Israël célèbre maintenant sa participation à ce traité aux côtés des États-Unis, du Royaume-Uni et de l’UE, après avoir passé deux ans à la table des négociations et contribué à la rédaction du premier traité international sur l’IA pour une gouvernance éthique de l’IA. Cette contradiction met en évidence une hypocrisie flagrante et soulève de sérieuses questions sur l’engagement réel de la communauté internationale en faveur de l’obligation de rendre des comptes.
Ce traité s’applique principalement à l’IA du secteur public, mais aborde également les risques du secteur privé. Les signataires du traité s’engagent à respecter des principes tels que la transparence, la responsabilité et la non-discrimination, et s’engagent à mettre en place des recours en cas de violations des droits de l’homme liées à l’IA. Le traité exige des évaluations des risques, des mesures d’atténuation et des obligations graduées en fonction de contextes spécifiques, ce qui garantit une certaine souplesse dans son application.
Depuis le début de ce génocide en cours, Israël a utilisé l’IA et les technologies de pointe comme arme pour tuer massivement et sans discernement des civils. L’État de l’apartheid a exploité l’IA pour la surveillance, le ciblage et la prise de décision. Israël a intensifié ses efforts pour contrôler et opprimer la population de la bande de Gaza, perpétuant une longue histoire d’oppression systématique du peuple palestinien. Cette utilisation abusive de la technologie soulève de profondes préoccupations, entraînant des conséquences dévastatrices pour des vies innocentes prises entre deux feux.
Contrairement à l’agenda « L’IA pour le bien commun » décrit dans les traités mondiaux sur l’IA, le programme d’IA d’Israël « Lavender » est devenu une pièce maîtresse sombre du génocide en cours à Gaza. À peine deux semaines après le début de la guerre, les listes de personnes à tuer de Lavender ont été automatiquement approuvées, ciblant des militants présumés – y compris de nombreux membres de bas rang du Hamas et du Jihad islamique palestinien – avec une surveillance humaine minimale. Dans les premières semaines de la guerre, Lavender a signalé jusqu’à 37 000 Palestiniens et leurs maisons comme cibles de bombardement. Cette militarisation de l’IA a entraîné des pertes civiles dévastatrices, car les critères larges et sujets aux erreurs de Lavender ont entraîné des attaques aveugles contre les maisons, causant un nombre effroyable de morts. Contrairement à d’autres systèmes tels que « The Gospel », qui cible les bâtiments, Lavender se concentre sur les individus, amplifiant la tragédie de ses faux pas.
Alors que le traité international défend l’utilisation responsable de l’IA, le respect des droits de l’homme et de l’État de droit, le système d’IA d’Israël « Habsora », ou « L’Évangile », contraste fortement. Déployé depuis le début de la guerre de Gaza, Habsora agit comme un outil de génération de cibles hautement automatisé pour les opérations militaires israéliennes. Capable de produire rapidement des listes de cibles, il facilite des frappes de grande envergure sur des maisons résidentielles, y compris celles de membres de bas rang du Hamas. Depuis le 7 octobre, Habsora a fait d’importantes victimes civiles, les frappes touchant souvent des maisons sans présence confirmée de militants. Les critères de ciblage généraux et la surveillance minimale du système ont entraîné des destructions massives, ainsi que l’effacement des caractéristiques géographiques de la bande de Gaza et l’anéantissement de sa population.
Avant cette guerre, et au cours des deux dernières années, alors que l’État de surveillance contribuait à l’élaboration de l’ordre du jour de la Convention, Israël n’est pas resté inactif, mais a plutôt systématiquement automatisé son système d’apartheid. Du soi-disant « tireur intelligent » à Hébron aux technologies de reconnaissance faciale, il a utilisé des technologies révolutionnaires pour cibler et tuer les Palestiniens.
Entre 2020 et 2021, les enquêtes ont révélé qu’Israël s’appuie de plus en plus sur des technologies de surveillance et de prédiction avancées pour contrôler les Palestiniens. Cette surveillance numérique, qui s’inscrit dans le cadre d’une stratégie plus large, fonctionne à la fois comme un moyen de répression et comme une entreprise commerciale, Israël testant ses techniques de surveillance des Palestiniens avant de les commercialiser auprès de régimes répressifs à l’échelle mondiale. L’État de surveillance utilise une surveillance étendue, y compris la reconnaissance faciale et des systèmes de suivi automatisés comme « Loup bleu » et « Loup rouge », pour surveiller et s’immiscer dans la vie quotidienne des Palestiniens. Ces technologies, associées au contrôle d’Israël sur l’infrastructure des technologies de l’information et de la communication (TIC), intensifient le sentiment d’une surveillance constante, empiétant sur la vie privée et étouffant la liberté d’expression, tout en menaçant l’accessibilité palestinienne à Internet, et en le fermant chaque fois que l’État oppressif décide de dissimuler ses crimes de guerre. Cette approche renforce non seulement l’apartheid automatisé, mais sert également d’exemple troublant de la façon dont l’IA, parmi d’autres technologies, a été utilisée comme arme pour servir la sécurisation et la militarisation d’un État d’apartheid, qui a maintenant l’occasion de façonner, sur un plateau d’or, de façonner et d’adhérer au premier traité sur l’IA.
La participation d’Israël au premier traité mondial sur l’IA, destiné à promouvoir une utilisation éthique de l’IA et à faire respecter les droits de l’homme, contraste fortement avec ses pratiques réelles. Pendant des mois, Israël a utilisé des systèmes d’IA avancés comme « Lavender » et « Habsora » pour cibler et tuer des civils à Gaza, tout en célébrant son rôle dans la rédaction d’un traité qui prétend assurer une gouvernance responsable de l’IA. Cette contradiction met non seulement en évidence une hypocrisie troublante, mais soulève également de sérieuses questions sur l’engagement de la communauté internationale en faveur d’une véritable responsabilité. Alors qu’Israël continue d’exploiter l’IA à des fins d’oppression, il sape les principes mêmes que le traité était censé défendre. Le monde doit examiner de près cette disparité et demander des comptes à Israël pour prévenir l’utilisation abusive de la technologie et protéger les droits de l’homme à l’échelle mondiale.
MONDOWEISS – Mona Shtaya – 16 septembre 2024