Accueil > Agences & Marques > Actualités > CNIL : un rapport pour éviter que l’IA et les algorithmes n’échappent à l’humain
Actualités

CNIL : un rapport pour éviter que l’IA et les algorithmes n’échappent à l’humain

Les robots vont-ils remplacer les humains Marseille Paris
Partager

L’intelligence artificielle (IA) est l’affaire de toutes et de tous. Nous l’utilisons au quotidien, le plus souvent sans même nous en rendre compte. Pourtant, elle n’est pas sans conséquence sur notre façon de penser, sur notre mode de vie et sur notre vision du monde. Que ce soit dans nos interactions avec nos amis sur Facebook, dans l’accès à l’information ou dans une recherche Google, il y a de l’IA.

Un débat citoyen

C’est, entre autres, pour sensibiliser le grand public à ces enjeux que la CNIL a lancé cette année un débat public sur ce thème avec l’aide de 60 partenaires (associations, entreprises, administrations...) dans des secteurs divers et à travers 45 manifestations dans toute la France. Il convient de souligner le caractère participatif et inclusif de ce dispositif dans lequel le citoyen n’a pas été oublié. Il a même été partie prenante lors d’une journée de concertation citoyenne organisée le 14 octobre à Montpellier.

Le fruit de ces échanges est un rapport intitulé « Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle » publié le 15 décembre. Tout est dans le titre : si on pouvait résumer le document à un enjeu, c’est bien celui de garder l’humain au cœur du fonctionnement des algorithmes et de l’IA.

La peur d’une IA autonome

Car c’est la crainte numéro 1 ressentie par les Français : celle de voir la « créature » échapper à son créateur. Ceci n’est pas une vue de l’esprit aujourd’hui. Une IA de type « machine learning » (pour « apprentissage machine » par laquelle l’IA apprend elle-même les opérations à effectuer pour accomplir sa tâche en fonction des données que l’humain lui soumet) est d’une telle complexité que même ses concepteurs finissent par perdre la capacité à comprendre la logique de ses résultats.

Au-delà de l’aspect technique, la perte de contrôle s’illustre dans la dérive consistant à se reposer sur des systèmes algorithmiques performants par lesquels l’humain abandonnerait toute responsabilité. Les exemples abondent et ne concernent pas que les dirigeants. Il est tout aussi pratique de « laisser faire » la machine dans la « sélection » des candidats à l’Université permettant de s’affranchir de tout choix politique (voir le précédent APB en France) que de laisser conduire sa voiture autonome et de rejeter toute responsabilité en cas d’accident.

Cet abandon est d’autant plus problématique que la prétendue neutralité des algorithmes avancés par ses défenseurs n’existe pas. Ils obéissent à un souci d’efficacité et de prévisibilité sans compter qu’ils sont (pour l’instant) le fruit d’un travail humain et, à ce titre, motivé par des considérations commerciales voire idéologiques (comme le transhumanisme en vogue à la Silicon Valley, berceau de la plupart des applications que nous utilisons quotidiennement).

Le problème n’est pas simple. S’il y a consensus à vouloir que la personne humaine ne « perde pas la main » pour paraphraser la Présidente de la CNIL Isabelle Falque-Pierrotin, il peut être difficile de savoir où placer le curseur entre l’action de la personne humaine et celle de l’IA. Alors que l’analyse opérée par celle-ci est supérieure à celle de l’humain dans la radiographie ou l’analyse des cancers, le rôle de ce dernier se limiterait au « coup de tampon » pour approuver le diagnostic. Peut-on encore parler de décision humaine ?

Biais et autres problématiques

Mais la perte de contrôle humain n’est pas le seul enjeu posé par l’IA et les algorithmes. Il y a le problème bien humain des biais qui peuvent conduire à des emplois discriminants de ces technologies. Ainsi, le Professeur de mathématiques et de statistique Philippe Besse de l’Université de Toulouse a démontré que nous n’étions pas tous égaux face à la médecine personnalisée. En effet, selon une étude de 2009, 96 % des échantillons des bases de données utilisées ont des ancêtres européens. Si on ajoute à cela d’autres biais comme l’âge et le genre, on arrive à la conclusion que les jeunes femmes d’origine africaine ont très peu de chance d’êtres prises en compte par la médecine personnalisée.

Autres problématiques abordés par le rapport : l’impact de l’utilisation de l’IA au niveau collectif, l’enfermement algorithmique plus connu sous le nom de la théorie des bulles de filtres, la dynamique de personnalisation au détriment du bien commun (qui conduit, par exemple, à la démutualisation des systèmes d’assurance)… La CNIL se permet même de traiter de sujets a priori éloignés de nos préoccupations quotidiennes comme l’hybridation de l’Homme et de la machine et les métamorphoses de l’identité humaine.

Des recommandations pour répondre aux enjeux éthiques de l’IA

Dans une dernière partie, le rapport avance des réponses possibles à ces enjeux éthiques. Il rappelle qu’il existe déjà un cadre juridique pertinent avec la loi informatique et libertés de 1978. Sur ce point, il faudra aussi compter sur le règlement européen sur la protection des données personnelles qui entrera en vigueur en 2018 même si des insuffisances demeurent comme la question du traitement des données à caractère non personnel.

La CNIL met l’accent sur deux principes qui devrait servir de fondement à toute réflexion et régulation de l’IA et des algorithmes. Le premier est le principe de loyauté. Il a été formulé par le Conseil d’État en 2014. Il « consiste à assurer de bonne foi le service de classement ou de référencement, sans chercher à l’altérer ou à le détourner à des fins étrangères à l’intérêt des utilisateurs ». Autrement dit, les critères de classement et de référencement doivent être pertinents. De plus, la plateforme a l’obligation d’informer sur la logique de fonctionnement de l’algorithme. Concrètement, cela se traduit pour l’utilisateur par l’obligation à ce que son consentement soit recueilli en cas de collecte et d’utilisation de ses données personnelles. Initialement prévu pour les seules plateformes, la CNIL aimerait le voir étendu à tous les algorithmes de façon à ce qu’« un algorithme loyal ne devrait pas avoir pour effet de susciter quelque discrimination que ce soit, fût-ce à l’insu de ses concepteurs ».

Le second principe est celui de la vigilance dont l’objectif est d’appréhender et d’encadrer le caractère instable des algorithmes, notamment ceux relevant de l’apprentissage machine. Le respect de ce principe entraînerait une exigence d’intelligibilité ou d’explicabilité des algorithmes afin de comprendre la logique générale de son fonctionnement pour s’assurer de la conformité entre la promesse affichée par le service et la pratique réelle de la plateforme.

Au-delà des principes abstraits, la CNIL formule des recommandations pratiques comme la formation des citoyens, des professionnels et des concepteurs aux enjeux éthiques de l’IA. La Commission souhaite également l’amélioration du design des plateformes afin de permettre leur usage éclairé et maîtrisé. Autre mesure concrète : la mise en place d’une plateforme nationale d’audit des algorithmes dans le but de contrôler leur conformité à la loi et leur loyauté. De façon plus générale, la CNIL fixe comme objectifs le renforcement de l’éthique en entreprise, et le rayonnement de la France dans le domaine de l’IA éthique.

 

Article rédigé par Thierry Randretsa

Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires
Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires