Accueil > Agences & Marques > Actualités > Désaccord entre la société civile et les Nations Unies sur les « robots tueurs »
Actualités

Désaccord entre la société civile et les Nations Unies sur les « robots tueurs »

Partager

Après des années de discussions informelles, la tenue d’une première réunion du groupe d’experts gouvernementaux est une victoire en soi. En effet, elle constitue une avancée dans le débat international autour de la question des systèmes d’armes létaux autonomes (SALA), communément appelés « robots tueurs ». Elle est une étape dans le processus qui pourrait déboucher sur un traité juridique consacré à cette problématique.

Des SALA au menu des discussions

Ces systèmes d’armes se distingue par leur capacité supposée à décider de la vie ou de la mort d’un être humain sans que celui-ci n’ait à intervenir dans ledit processus de décision. Pour l’instant, ces armes relèvent de la fiction. Mais elles pourraient prochainement devenir une réalité en raison des avancées technologiques, notamment en matière d’intelligence artificielle. Pour certains, des armes actuelles relèveraient déjà de cette catégorie à l’instar du SGR-A1, un « robot de sécurité et de surveillance intelligent » qui opère dans la zone démilitarisée qui sépare les deux Corée. Il est équipé d’un canon de 5,56 millimètres et d’un lance-grenade de 40 millimètres. En principe, il fonctionne sous supervision humaine mais l’engin disposerait de nombreux modes automatiques dont on ignore les modalités. Peut-il décider de l’emploi de la force sans en faire part à un humain ?

Au cours des réunions du groupe d’experts, plusieurs sujets ont été abordés : la capacité à fabriquer des SALA susceptibles de se conformer au droit international humanitaire et au droit international des droits de l’Homme, leur impact potentiel sur ces deux régimes juridiques, la position des États sur la question, l’avenir du groupe… À l’issue de ces quatre jours de travail, Amandeep Gill, l’ambassadeur des Nations Unies sur le désarmement, a rejeté tout catastrophisme : « mesdames et messieurs, j’ai des nouvelles pour vous : les robots ne prennent pas le contrôle du monde. Les humains restent aux commandes ».

La société civile contre les « robots tueurs »

La société civile fait entendre un autre son de cloche. Depuis plusieurs années, des organisations non-gouvernementales (ONG) militent pour l’interdiction des « robots tueurs » sur le modèle des conventions internationales bannissant les mines antipersonnel ou les armes à sous-munitions. Les SALA n’existant pas, l’interdiction serait préemptive. Elle est justifiée par le fait que ces systèmes d’armes seraient intrinsèquement incapables de respecter le droit international humanitaire. Dépourvues de la faculté de jugement humain, ils ne disposent pas du raisonnement, voire de la sensibilité nécessaire à l’application du droit à une situation de fait en dépit de leur capacité à traiter rapidement des masses de données.

À cela s’ajoute la potentielle instrumentalisation de ces armes par des gouvernements autoritaires ou la crainte d’une course aux armements en raison des avantages militaires qu’elles procurent (vitesse, précision, absence de pertes de soldats humains...). Face à ce péril, des personnalités du monde de la recherche et de l’entreprise ont signé l’été dernier une lettre ouverte aux Nations Unies appelant à la réglementation des armes létales autonomes. Parmi les signataires, on retrouvait Elon Musk à la tête de Tesla et Mustafa Suleyman, le fondateur de l’unité d’intelligence artificielle d’Alphabet (la société derrière Google).



Ce mois-ci, les opposants aux SALA se sont distingués par la publication d’une vidéo choc. On y voit un conférencier parler des bienfaits de mini-drones capables d’agir en essaim et de tuer des cibles précises. Le discours est illustré par une mise en pratique. En l’espèce, des jeunes activistes sont liquidés au sein même de leur Université par ces machines sans que l’on sache qui est à la manœuvre.


Le court-métrage se termine par un message de Stuart Russell, Professeur en science informatique de l’Université de Berkeley (Californie) : « ce court métrage est plus que de simples spéculations. Il montre les résultats de l’intégration et de la miniaturisation de technologies que nous avons déjà. (…) J’ai travaillé pendant plus de 35 ans sur l’intelligence artificielle. Son potentiel au bénéfice de l’humanité est énorme même dans le domaine de la défense. Mais permettre aux machines de choisir de tuer des humains aura des conséquences dévastatrices sur notre sécurité et notre liberté ».

Nous voilà prévenus.

Article rédigé par Thierry Randretsa

Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires
Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires