Accueil > Agences & Marques > Reportages > Des robots militaires : entre réalité et fiction, quels enjeux éthiques ?
Reportages

Des robots militaires : entre réalité et fiction, quels enjeux éthiques ?

L’intelligence artificielle et les « robots tueurs Marseille
Partager

Vous avez eu la passe d’armes entre Mark Zuckerberg et Elon Musk sur Twitter. Puis, il y a eu l’histoire de ce programme d’intelligence artificielle développé par Facebook qui se serait soi-disant emballé en développant son propre langage. Récemment, le réalisateur James Cameron a remis une pièce dans le machine, justifiant le retour de la franchise Terminator par l’actualité des nouvelles technologies, du drone Predator aux débats éthiques sur le recours des robots à la force létale.

 

Dernier événement en date : des personnalités du monde de la recherche et de l’entreprise ont envoyé une lettre ouverte aux Nations Unies. Parmi elles, on trouve un certain Elon Musk, patron de SpaceX et cofondateur de Tesla Motor. Il avait déjà été signataire en 2015 d’un texte appelant à l’interdiction des « armes autonomes offensives hors du contrôle humain significatif » aux côtés du physicien Stephen Hawking, de Steve Wozniak, co-fondateur d’Apple et du linguiste et politologue Noam Chomsky du Massachusetts Institute of Technology (MIT). L’objectif est toujours le même en 2017. Le ton est alarmiste. Il est écrit que ces armes permettront des « conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles à concevoir pour les humains ». « Elles peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes, et des armes piratées pour se comporter de façon indésirable ».


Qu’en est-il en réalité ? Sommes-nous vraiment proche d’un monde dans lequel un T-800 ou un T-1000 déambulerait dans les rues l’arme à la main et autorisé à tuer ?

Robotisation du champ de bataille

Premier constat indéniable : les robots ont envahi le champ de bataille. Prenons l’exemple de l’armée américaine. En 2005, les drones comptaient pour seulement 5% de la flotte militaire aérienne. En 2012, ce chiffre est passé à 31%. Autre exemple : 12 000 robots composés d’une vingtaine de modèles opéraient sur le sol irakien fin 2008. Il n’y en avait aucun lors de l’invasion de 2003. Depuis, la tendance est à la hausse que ce soit sur terre, sur mer ou dans les airs.

Robotisation n’est pas autonomie

Lorsqu’on parle de robots on a souvent en tête l’imagerie véhiculée par le cinéma de science-fiction hollywoodien : une machine de fer prête à faire l’usage d’armes à feu sitôt la menace identifiée. Or, il s’agit d’une représentation (pour l’instant) peu conforme à la réalité. Soyons clairs : le robot doté d’un libre-arbitre ayant droit de vie ou de mort sur l’humain selon des critères qu’il aurait lui-même défini n’est pas à l’ordre du jour.

Pour autant, on ne peut pas nier des « progrès » allant dans le sens de l’autonomie. On peut citer le système de défense israélien « Dôme de fer ». Celui-ci est capable de détecter seul une menace imminente tel qu’un missile. Puis, il envoie le signal à un opérateur humain qui décide s’il doit donner l’autorisation au système de répondre.

On peut ajouter le système antimissile Phalanx qui équipent certains navires. Il leur permet de détecter, traquer et engager automatiquement les menaces militaires anti-aériennes.

Autre exemple : la plateforme robotique qui opère dans la zone démilitarisée qui sépare les deux Corée. L’engin est susceptible d’identifier des objectifs. De jour, sa portée est de quatre kilomètres. De nuit, elle est de deux kilomètres. En cas de menace, un humain peut décider qu’il réponde par l’emploi de la force létale. En théorie, il est tout a fait capable d’agir seul.

Dernier exemple, peut-être plus spectaculaire : le drone américain X-47B. Il est le premier dans l’histoire de l’aviation à avoir décollé, volé et apponté de façon totalement autonome, sans pilote à bord ou opérateur à distance. Une prouesse réalisée le 10 juillet 2013.

Dès lors, le rôle de l’humain dans la guerre serait amené à baisser. Selon le Département d’État américain, la collaboration entre les systèmes pilotés et ceux sans pilotes va entraîner une baisse du niveau de contrôle humain. D’ici 2030, l’Homme sera la composante la plus faible des systèmes et procédures militaires, selon un rapport de l’US Air Force.

 

La campagne contre les robots tueurs

Ce développement quantitatif et qualitatif des robots militaires n’est pas sans inquiéter la société civile. En 2013, un collectif d’ONG lançait une campagne appelant à l’interdiction préventive des « robots tueurs »

Interdiction préventive !

Un tel appel est inédit dans l’Histoire. En effet, que ce soit les mines antipersonnel ou les bombes à sous-munition (pour prendre des exemples récents), les conventions internationales d’interdiction d’arme se sont toujours appliquées à des technologies existantes. En l’espèce, le péril serait tel qu’il faudrait agir dès maintenant.

La vision des ONG pourrait être résumée par la formule suivante : comment s’attendre à ce qu’une guerre soit conduite de façon humaine si elle n’est plus faite par des humains ? Par leur faculté de jugement, ils sont les mieux à même de comprendre une situation de guerre. L’émotion, la compassion et l’empathie poussent les femmes et les hommes à faire ressortir le meilleur d’eux-mêmes. Or, les machines en s’en dépourvues. Le rapport de l’ONG Human Rights Watch (HRW) citait cet exemple emblématique dans son rapport de 2013 « Losing Humanity ». Face à une scène où deux enfants jouent avec des armes factices avec leur mère à côté, l’Homme saurait très bien ce qu’il en est là où un système robotique serait tenté de voir deux soldats menaçant un civil.

La technologie est loin d’être infaillible. Elle peut se tromper avec des conséquences dramatiques pour l’Homme. Le 3 juillet 1988, le navire de guerre U.S.S. Vincennes patrouillant dans le Golfe Persique abattait par erreur un Airbus de la compagnie Iran Air. Bilan : les 290 passagers étaient morts sur le coup. Le système radar Aegis qui équipait le bateau était réglé en mode semi-automatique. Il avait considéré l’aéronef civil comme un avion de combat. Les marins et officiers à bord du navire auraient pu remettre en question le radar et ne pas autoriser la frappe. Ils ne l’ont pas fait car ils étaient soumis au biais de l’automation.

De plus, un chef d’État serait plus prompt à faire la guerre s’il sait que son armée n’encourt plus de risque de subir des pertes.

 

Des robots humains après tout ?

 

Pourtant, l’humanisation de la guerre est un argument employé par les partisans des systèmes d’armes létaux autonomes (ou SALA la dénomination technique des « robots tueurs ») comme le roboticien Ronald C. Arkin professeur à la School of Computing du Georgia Institute of Technology. Parler de l’empathie de l’Homme, c’est, selon eux, quelque peu oublier son « côté obscure ». Il est capable du meilleur comme du pire. L’Histoire est parsemée de massacres et d’atrocités en tous genres que ce soit en temps de guerre ou de paix. Tous commis par des humains. A priori, les robots n’ont encore tué personne. Mieux, s’ils ne savent pas faire preuve de compassion, ils ne sont pas non plus guidés par des sentiments négatifs comme la haine. Ils sont imperméables à la fatigue ou au risque de syndrome de stress post traumatique. S’ils voient des camarades tomber au combat, ils ne vont pas pour autant chercher à se venger. N’étant pas guidés par un instinct de survie, ils pourraient même se « sacrifier » pour sauver des vies humaines. Un acte considéré comme héroïque pour l’Homme.

Par ailleurs, si celui-ci dispose d’une faculté de jugement unique, il est de plus en plus dépassé par les exigences de la guerre moderne. Placé dans des environnements à risque où les combats se déroulent à proximité des populations, face à des ennemis qui connaissent le terrain, le théâtre des opérations contemporains nécessitent une compréhension accrue du terrain qui ne peut s’obtenir que les moyens de captation et de traitement modernes de l’information. L’identification positive d’un objectif peut requérir des centaines si ce n’est des milliers d’heures de vidéos prises par des drones de surveillance qu’il faut regarder et analyser. Ce travail considérable doit être mise en perspective avec l’obligation d’agir vite pour prendre le pas sur l’adversaire. Autrement dit, ces tâches sont amenées à être de plus en plus automatisées pour laisser à l’Homme le seul soin de décider, au moins dans un premier temps.

 

La diable dans les détails

En pratique, il n’est pas sûr que la problématique se pose en des termes aussi nets : d’un côté le robot doté d’un libre arbitre et de l’autre l’humain contrôlant tout. Dans les faits, les procédures automatisées et les actions de l’Homme sont mêlées. De plus, tout le monde s’accorde à dire que l’humain doit contrôler les machines. La question est de savoir jusqu’où : c’est le contrôle humain significatif.

D’un côté, les détracteurs des SALA estiment que cette notion requiert une connaissance exhaustive de ses conditions d’emploi par l’utilisateur. À cela, il faut ajouter que le recours à la force létale ne peut se faire sans une action positive humaine ce qui inclut la possibilité d’annuler une attaque. Selon ces critères, les armes autonomes existeraient déjà selon le chercheur Nicolas Marsh du Peace Research Institute d’Oslo. Ce serait le cas du missile antichar britannique Brimstone mis en service en 2005 car il ne se dirige par directement sur une cible. Autrement dit, l’attaque n’est pas activée positivement par un opérateur. Le missile procède d’abord à une recherche dans une zone donnée avant de sélectionner l’objectif valide. Entre les deux étapes, il opère des comparaisons à l’aide de données disponibles dans sa mémoire.

De l’autre côté, les partisans des SALA considèrent que le contrôle humain significatif est garanti lorsque l’information entourant la décision d’emploi est suffisante pour établir sa légalité selon le contexte du moment. Pour eux, l’exigence d’une action positive est irréaliste et ridicule. Par définition, on ne peut pas suspendre ou annuler une attaque exécutée avec une arme de projectile. A-t-on déjà vu un archer arrêter l’action de sa flèche en plein mouvement ? Au contraire, c’est la technologie moderne avec ses systèmes d’information qui a rendu possible cette action.

 

Y a-t-il un pilote dans le robot ?

Si on vient à admettre le principe du « robot tueur », il se pose toujours le problème de la responsabilité, fondamental pour réparer les dommages subis par les victimes de ces entités. Qui serait responsable des actes d’un robot autonome ?

Le commandant humain ? On peut se demander s’il disposerait d’un contrôle suffisant sur la machine. Il faudrait qu’il sache à l’avance le potentiel d’action illégale de la machine. En face, la défense aurait à prouver qu’il n’a rien fait pour l’empêcher. Sauf qu’il n’a pas programmé le robot. Il lui est donc difficile de connaître à l’avance ce potentiel. De plus, il ne peut agir pour empêcher le crime puisque, par définition, le robot a été fabriqué pour agir de manière autonome.

Dès lors, cela pose la question de la responsabilité du fabricant. Elle comporte son lot de difficultés puisque le programmeur ne peut pas prévoir à l’avance avec certitude comment régira sa machine dans un environnement complexe. Le fait qu’il opère un choix imprévu est indissociable de son caractère autonome. Le programmeur ne pourrait être tenu pour responsable pénalement que s’il a programmé intentionnellement la machine dans le but de lui faire commettre un acte illégal.

Autre possibilité : la responsabilité pour produits défectueux. Dans cette hypothèse, les fabricants de robots seraient responsables des défaillances de leurs produits. Toutefois, il est peu probable qu’un industriel prenne le risque de vendre des armes intrinsèquement dangereuses sachant les risques juridiques. De leur côtés, les victimes de guerre (démunies) n’auraient pas les moyens de plaider devant de telle une juridiction civile pour obtenir des réparations.

Face à ces impasses, il ne resterait alors plus qu’à doter les robots d’une personnalité juridique ce qui, là encore, est loin d’être idéal. Comment, en effet, sanctionner une entité qui, a priori, n’a pas de conscience ? Si on ne prend en compte que le seul dédommagement, la détermination de la responsabilité demeure : nous avons vu à quel point elle était difficile.

En définitive, on peut se demander si un compromis est possible entre l’interdiction pure et simple réclamée par un pan de la société civile et l’intérêt que des États et des sociétés ont à développer ce type d’armement. À minima, une réglementation internationale, y compris officieuse, est envisageable sur le modèle de la cyber guerre avec le manuel de Tallinn.

 

Article rédigé par Thierry Randretsa

Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires
Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires