Robots-tueurs: où va le monde?

Robots-tueurs : où va le monde ?

Roger Gil; Billet éthique; 25 février 2025, 159

    On parle beaucoup de l’intelligence artificielle habitant ces robots qui peuvent assister l’être humain dans ses déplacements dans des voitures « autonomes » qui n’ont plus besoin de conducteurs, qui peuvent assister des personnes handicapées comme ceux qui peuvent aussi remplacer les êtres humains dans des usines. On parle moins des robots-tueurs encore appelés SALA pour Systèmes d’Armes létales autonomes. L’intelligence artificielle peut ainsi servir au meilleur et au pire. Ces robots, une fois lancés dans un périmètre qui leur est assigné, n’ont plus besoin d’aucune forme de supervision humaine. Qu’ils se présentent sous forme d’humanoïdes, de véhicules terrestres ou aériens ou maritimes, ils peuvent identifier des cibles, les détruire, s’adapter à l’environnement.  L’ONU avait été interpellée dès 2012, par une campagne internationale intitulée « Stop killer robots coalition » menée par 63 organisations non gouvernementales (ONG). Dans une lettre ouverte adressée à l’ONU et publiée le 21 août 2017, Elon Musk et 115 dirigeants d’entreprises soutenaient la décision de l’ONU de s’emparer de ce sujet dont ils proclamaient l’urgence en le comparant à la boîte de Pandore qui, une fois ouverte, serait difficile à refermer[1].  Depuis, la coalition Stop killer robots dénonce une « déshumanisation numérique croissante » et en appelle à « garantir le contrôle humain dans l’usage de la force ». Elle a lancé un film « Code immoral » qui étudie l’impact des robots-tueurs dans un monde de plus en plus automatisé, où les machines décident qui tuer ou quoi détruire. Il examine s’il existe des situations dans lesquelles il est moralement acceptable de prendre une vie et si un ordinateur ferait la différence[2].  Car les « machines ne nous voient pas comme des êtres humains, mais simplement comme un autre morceau du code à traiter et à trier »[3]. Le 5 novembre 2024, la Première Commission de l’Assemblée générale des Nations Unies a adopté pour la deuxième année consécutive une résolution sur les systèmes d’armes autonomes : elle se déclarait consciente des « graves défis et préoccupations que les applications technologiques nouvelles et émergentes dans le domaine militaire, y compris celles liées à l’intelligence artificielle et à l’autonomie des systèmes d’armes soulèvent d’un point de vue humanitaire, juridique, sécuritaire, technologique et éthique ». Votée par 161 États[4], cette résolution n’est « qu’un petit pas en avant » qui n’interdit pas les armes autonomes, mais prévoit « des discussions élargies » et soutient la préservation et le renforcement des contrôles humains sur l’usage de la force ». Il ne s’agit là que d’un appel à des négociations allant dans le même sens que le secrétaire général de l’ONU qui, dans son rapport, disait que « le ciblage autonome d’êtres humains par des machines est une ligne morale qui ne doit pas être franchie[5] ». Hélas il existe un abîme entre ces déclarations et la volonté déterminée d’États fortement militarisés pour poursuivre le développement de ces armes.

 En effet ces robots- tueurs autonomes prennent la forme de drones de plus en plus miniaturisés qui pourraient, déversés en grand nombre, se comporter comme des armes de destruction massive faisant courir de graves dangers à des populations civiles. Il existe aussi des robots mitrailleuses qui tirent sur toute personne ou tout véhicule qu’elles détectent : de telles machines ont été déployées par la Corée du Sud dans la zone démilitarisée qui la sépare de la Corée du Nord pour éviter d’exposer des soldats dans des zones isolées. On peut aussi ajouter que toutes ces machines ne connaissent pas les rythmes veille sommeil, ce qui les rend dans la durée plus efficaces que les humains. En outre ces robots permettent de ne pas engager de soldats sur le champ de bataille en première ligne et elles permettent de déléguer les droits de vie ou de mort à des machines irresponsables. Dès 2017, au salon international de l’aéronautique dénommé Maks, à Moscou, un marchand d’armes[6] a souligné la détermination de la Russie à poursuivre ses recherches en matière d’IA militaire, car il ne pouvait être question de se laisser dépasser par les États-Unis ou la Chine[7].

         La construction d’appareils de plus en plus intelligents fait partie de ces programmes de recherche et d’innovation dont on voit bien qu’ils peuvent être utilisés pour les desseins les plus généreux (l’aide aux personnes handicapées, la réalisation d’interventions chirurgicales) comme pour les desseins les plus sombres. Ainsi les progrès des sciences et des techniques ne sont pas toujours des progrès en termes d’humanisation. Alors que certains considèrent que l’éthique est un frein au libre développement des sciences, force est de constater qu’elle est indispensable pour orienter les progrès des sciences vers le bien de l’humanité. Et dans ce cas particulier, l’intelligence artificielle peut servir les desseins les plus sombres comme les plus généreux. Car la science n’est ni bonne ni mauvaise, ce sont les intentions humaines qui l’avilissent ou lui donnent ces lettres de noblesse. Et la France ? La France, sans doute, lasse de la stagnation des pourparlers sur leur interdiction a décidé aussi de s’équiper de manière plus intensive de drones armés. Pouvait-elle avec le reste de l’Europe continuer de se laisser distancer dans cette course aux armements ? Le rapport du Sénat du 2 mai 2017 en avait fait un enjeu de souveraineté. Les déclarations faites officiellement disent cependant la préoccupation de la France de rester fidèles à ses convictions éthiques. « La France a clairement affirmé que des systèmes d’armes capables de recourir à la force de façon totalement autonome seraient fondamentalement contraires à ses principes, et qu’elle n’entendait pas en développer ».

Notre pays a ancré sa stratégie de développement de l’intelligence artificielle de défense dans le cadre de trois grands principes : « respect du droit international, responsabilité du commandement dans l’emploi des armes et maintien d’un contrôle humain suffisant [8]». Elle n’utilisera pas de drones tueurs aveugles, mais seulement des drones, dont les frappes seront ciblées. Cette précision est capitale. Des sujets de cette importance méritaient en effet une information précise. Mais ils nous ramènent à la triste réalité de l’insécurité d’un monde encore loin de la paix.

En effet pour le moment, les 11 principes adoptés par la convention adoptée dans le cadre de la Convention sur certaines armes classiques (CCAC) dans une déclaration datée du 20 septembre 2019 signé par de nombreux États et les grandes puissances militaires du monde (mais ni par l’une et l’autre Corée, ou l’Iran) ne sont qu’un accord de façade, car si tous admettent que « le droit international humanitaire s’applique à ces systèmes », il n’est pas question de limiter leur autonomie, une fois la décision prise de les lancer à l’attaque, mais seulement que « la décision d’en faire usage doit toujours relever d’une responsabilité humaine[9] ». On en reste abasourdi, mais il faut demeurer lucide : il n’y aura pas d’accord sur l’interdiction de développement et d’utilisation des robots-tueurs. On concèdera que l’utilisation de ces robots ne pourra pas se faire de manière automatisée, mais sur décision humaine, ce qui est le minimum sauf à admettre que l’agentivité humaine serait abandonnée en léguant à l’IA la conduite stratégique d’une guerre, ce qui est pour le moment irréaliste. La frange étroite de négociation reste, une fois l’utilisation de robots-tueurs décidée, de garder un certain contrôle humain sur le déclenchement du tir, sa trajectoire éventuelle, voire la possibilité d’interrompre son exécution en cas d’erreur de cible. Voilà pourquoi la France plaide pour que ces systèmes d’armes létales ne soient pas totalement autonomes. Comment ces nuances qualitatives pourront-elles se décliner sur le plan scientifique ? Il est clair en tout cas que la situation planétaire, les rivalités féroces entre les empires, les successions de guerres, les instincts et les idéologies qui les sous-tendent conduisent à cette évidence amère : la paix ne s’obtient que par l’équilibre de la terreur. Et l’équilibre de la terreur est un équilibre instable qui ouvre ainsi au développement incessant d’armes nouvelles.

Pourtant, dans nos sociétés consuméristes, des sujets de cette importance paraissent encore susciter peu d’inquiétude. On va voir Terminator au cinéma sans imaginer qu’un jour Terminator, qui est aussi un robot-tueur pourrait venir décimer nos vies. Puisse le monde se réveiller avant qu’il ne soit trop tard !

[1] https://www.dropbox.com/scl/fi/va547y71wgha554j3ju19/2017-Open-Letter-to-the-United-Nations-Convention-on-Certain-Conventional-Weapons.pdf?rlkey=1itwll0g48p3phtaut2fyxkv4&e=1&dl=0

[2] https://www.stopkillerrobots.org/take-action/immoral-code/

[3] https://www.stopkillerrobots.org/

[4] 3 voix contre et 13 abstentions. https://www.stopkillerrobots.org/news/161-states-vote-against-the-machine-at-the-un-general-assembly/

[5] https://www.stopkillerrobots.org/news/next-steps-un-secretary-general-report/

 rapport préliminaire sur les systèmes d’armes autonomes publié par le Secrétaire général des Nations Unies (ONU), Antonio Gutierrez, le 6 août 2024 voir Lethal autonomous weapons systems/ Report of the Secretary-General ; https://docs-library.unoda.org/General_Assembly_First_Committee_-Seventy-Ninth_session_(2024)/A-79-88-LAWS.pdf

Des consultations informelles devraient être ouvertes en 2025 à New-York « pour examiner le rapport du Secrétaire général en pleine complémentarité avec le Groupe d’experts gouvernementaux et d’une manière qui favorise l’accomplissement du mandat de celui-ci, afin de permettre à la communauté internationale de mieux comprendre les enjeux en débattant de l’ensemble des points de vue reçus, y compris les propositions et les aspects pertinents soulevés dans le rapport qui n’ont peut-être pas encore été examinés en détail par le Groupe d’experts gouvernementaux ». Les consultations seront ouvertes à la participation de tous les États membres et observateurs de l’ONU, des organisations internationales et régionales, du Comité international de la Croix-Rouge et de la société civile, y compris la communauté scientifique et l’industrie.

[6] Boris Obnosov, PDG de Tactical Missiles Corporation ; https://www.france24.com/fr/20170721-russie-developpe-missiles-drones-dotes-dune-intelligence-artificielle

[7] https://usbeketrica.com/fr/article/robots-tueurs-elon-musk-avertissement-onu

[8] https://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/securite-desarmement-et-non-proliferation/desarmement-et-non-proliferation/systemes-d-armes-letales-autonomes-quelle-est-l-action-de-la-france/

[9] https://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/la-france-et-les-nations-unies/l-alliance-pour-le-multilateralisme/11-principes-sur-les-systemes-d-armes-letaux-autonomes/

Le PDF peut être consulté en cliquant sur le lien suivant:

Robots-tueurs, billet éthique 159 PDF