Accueil > Agences & Marques > Actualités > La France face aux enjeux de l'intelligence artificielle dans le domaine militaire : Entre ambitions et controverses
Actualités

La France face aux enjeux de l'intelligence artificielle dans le domaine militaire : Entre ambitions et controverses

La France et les robots tueurs
Partager

Jeudi 29 mars, le Président de la République présentait les grandes orientations de son gouvernement pour faire de la France un pays leader dans le domaine de l’intelligence artificielle (IA) dans un discours au Collège de France. Il était précédé par la publication du rapport du mathématicien et député de l’Essonne Cédric Villani intitulé « Donner du sens à l’intelligence artificielle ». Ce document de 250 pages a pour ambition de « donner un cap, une signification et des explications (…) au développement de l’intelligence artificielle ».

Pour doper la politique industrielle de la France dans ce domaine, le rapport préconise la concentration des efforts sur quatre secteurs prioritaires : la santé, l’écologie, les transports-mobilités et la défense-sécurité. Dans ce dernier cas, l’IA est notamment présentée comme un « moyen de protection » des forces armées. En la matière, la robotique est déjà utilisée pour préserver des vies humaines lorsqu’il s’agit, par exemple, de procéder à des opérations de déminage. Dans le contexte du combat, il est indéniablement une aide opérationnelle en facilitant l’accès à l’information, améliorant ainsi la prise de décision. De façon générale, « la recherche de la performance est (…) une nécessité face à des adversaires dont les capacités croissent sans cesse et face à des situations tactiques de plus en plus complexes, impliquant des systèmes d’une sophistication toujours croissante ».

Jusqu’où ?

La France et les robots tueurs

Depuis plusieurs années, des organisations non-gouvernementales tirent la sonnette d’alarme au sujet du développement exponentiel de l’IA dans le domaine militaire dont l’issue serait la production de systèmes d’armes létaux autonomes, plus connus sous le sobriquet de robots tueurs. Derrière ce terme spectaculaire se cachent des machines dotées de la capacité de recourir à la force létale de façon autonome, autrement dit sans intervention humaine. Indice de la plausibilité de la réalisation d’un tel scénario, un certain nombre de personnalités du monde des nouvelles technologies et de la recherche comme Elon Musk, Stephen Hawking ou Steve Wozniak ont publiquement exprimé leurs inquiétudes sur ces futures « armes de terreur ». Futures car ces armes n’existent pas encore. C’est pourquoi la campagne contre les robots tueurs lancée par ces ONG visent l’adoption d’un traité international posant l’interdiction préventive de ces armes.

Sur ce sujet, la France apparaît comme un pays précurseur. En effet, c’est sous son impulsion que des discussions ont été lancées en 2013 dans le cadre de la Convention sur certaines armes classiques. Elle a débouché sur la création d’un groupe d’experts gouvernementaux qui a tenu sa première session fin 2017. Insuffisant pour Amnesty International qui accuse la France de double jeu défendant la régulation des systèmes d’armes létaux autonomes dans les enceintes des institutions internationales tout en poursuivant des projets de technologie de ce genre comme le drone de combat furtif Scaf (pour « système de combat aérien futur ») développé en collaboration avec la Grande-Bretagne. Prévu pour 2030, ce véhicule de combat aérien inhabité est conçu pour être employé dans des missions de repérage et d’attaque des défenses antiaériennes d’une zone sur des théâtres dits « non-permissifs ». La Direction générale de l’armement assure, d’une part, que le drone ne sera pas utilisé pour opérer des éliminations ciblées, ces attaques controversées d’une ou plusieurs cibles humaines en-dehors d’une zone de guerre pratiquées notamment par les États-Unis dans la lutte contre le terrorisme depuis le début des années 2000. D’autre part, l’autorité indique qu’il sera constamment sous supervision humaine.

Par ailleurs, la position de la France sur cette question aurait évolué ces derniers temps. À l’avant garde des pays souhaitant une régulation internationale, elle serait devenue de plus en plus permissive. Au cours de la réunion des membres délégués de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques d’avril 2015, la France avait déjà critiqué la notion de « contrôle humain significatif » défendue par les ONG. Celle-ci exige que l’humain exerce un « contrôle significatif » sur l’arme ce qui implique que les systèmes d’armes létaux autonomes incluent non seulement ceux recourant à la force létale sans intervention humaine, mais également ceux opérant sous « supervision humaine ». A contrario, un pays comme la France considère qu’à partir du moment où il y a « supervision humaine », on ne peut plus parler d’autonomie.

La recherche du compromis

On comprend mieux alors les désaccords sur la catégorisation du Scaf. Pour le collectif d’ONG militant contre les robots tueurs, cela pourrait expliquer la posture de plus en plus minimaliste de la France qui entraîne dans son sillage l’Allemagne. Lors de la réunion d’experts de novembre 2017, les deux pays avaient produit un document conjoint dans lequel ils considéraient tout projet de réglementation global comme « prématuré » alors que la technologie des armes létales autonomes n’existent pas encore. Ils estiment que les efforts devraient plutôt porter sur la définition d’un critère d’acceptabilité pour le développement de ces armes. S’agissant du travail de recherche, il conviendrait de se concentrer sur la définition de ce que l’on appelle les systèmes d’armes pleinement autonomes. Pour autant, les deux pays partagent la conviction que seul l’humain devrait décider en dernier ressort de l’usage de la force tout en exerçant « un contrôle suffisant » sur les systèmes d’armes qu’il utilise.

Cela n’en reste pas moins « une déception », pour la coordinatrice globale du collectif Mary Wareham dont le groupe a retiré l’Allemagne de la liste des 22 pays qui soutiennent l’interdiction préventive des armes létales autonomes.

Un compromis pour le représentant allemand à la Conférence sur le désarmement de Genève, Michael Biontino. L’idée est de proposer une « troisième voie » entre les pays qui sont strictement opposés à une interdiction des robots tueurs comme les États-Unis, la Russie et la Chine et ceux qui y sont favorables. Une approche réaliste qui ménage les susceptibilités de chacun et permet de prendre la température d’une technologie encore balbutiante.

Nous sommes loin de la position tranchée d’un Président Macron qui se déclare « tout à fait contre les robots tueurs » dans les colonnes du magazine Wired. Quelques jours plus tard, la Représentation permanente de la France auprès de la Conférence du Désarmement prenait le contre-pied du Président lors d’un atelier sur l’avancement des discussions de la Convention sur certaines armes classiques au sujet des systèmes d’armes létaux autonomes : « l'autonomie est une caractéristique essentielle des systèmes d'armes modernes puisqu'elle fournit de l'aide et peut faire la différence sur le champ de bataille ».

Comprenne qui pourra.

Article de Thierry Randretsa

Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires
Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires