Accueil > Outils & Media > Réseaux Sociaux > Les chiffres immodérés de la modération sur Facebook
Réseaux Sociaux

Les chiffres immodérés de la modération sur Facebook

Facebook lutte contre les faux profils
Partager

2018, année des réparations pour Facebook : suite. Après avoir fait amende honorable suite aux dernières révélations de l’affaire Cambridge Analytica et avoir multiplié les annonces visant à renforcer la protection des données personnelles des usagers, le géant américain s’engage sur un autre terrain miné : la modération. Vue de France et d’Europe, l’entreprise est souvent critiquée pour son approche supposée américaine de la liberté d’expression. Trop laxiste à l’égard des discours de haine, elle serait au contraire trop répressive vis-à-vis des contenus relatifs à la nudité comme en témoigne sa censure du tableau « L’Origine du monde ». Jusqu’à présent, nous ne disposions pas de données pour juger de sa politique de modération. Cela a changé depuis le mardi 15 mai.

Une modération de masse

Décidée à jouer le jeu de la transparence, la plateforme a publié pour la première fois des chiffres sur sa modération pour la période allant du dernier trimestre 2017 au premier trimestre 2018. Ils sont vertigineux. Jugez donc : Facebook a enlevé pas moins de 837 millions de contenus relatifs à des spams pour le seul premier trimestre 2018 ! Cette action s’est accompagnée de la suppression de 583 millions de faux comptes. Cela sans compter les millions de créations de faux comptes empêchées quotidiennement. Malgré ce ménage, 3 à 4 % des comptes actifs sur Facebook sur cette période seraient faux. Sur ce point, l’entreprise fait mieux que Twitter et ses 15 % de faux comptes même si cela représente au total plus de 60 millions de profils !

Autre point fort de la politique de modération de Facebook : sa lutte contre la propagande terroriste. Longtemps accusée de faire le jeu d’organisations comme l’État Islamique, la plateforme a depuis serré la vis. Résultat : leurs contenus sont désormais réduits à la portion congrue. On en dénombre trois millions sur la période étudiée. Dans 99,5 % des cas au premier trimestre 2018, ils sont signalés et traités avant même que les utilisateurs ne se manifestent.

Le travail de l’humain et de la machine

Comment le réseau social accomplit une telle performance ? Par un savant mélange de moyens humains et technologiques. La société de Menlo Park a beaucoup investi ces derniers temps dans la modération en procédant au recrutement de milliers de professionnels et en misant sur l’intelligence artificielle. La combinaison des deux facteurs permet de détecter efficacement des contenus graphiques inappropriés comme ceux relatifs à la nudité ou à la violence. Ce qui explique pourquoi nombre d’entre eux sont repérés et supprimés avant même qu’un socionaute ne les signale. Dans le premier cas, ils sont 96 % ; dans le second, 86 %.

Toutefois, ces moyens ne constituent pas la panacée, comme le reconnaît Facebook même. Dans certains domaines, l’appréciation du contexte est déterminante, ce que ne permet pas encore l’intelligence artificielle. Cela explique les mauvais résultats de la plateforme dans sa lutte contre les discours de haine. Tout d’abord, elle n’est pas capable de fournir des données sur l’étendue du phénomène. En outre, elle n’a pu repérer que 38 % des contenus inappropriés avant les utilisateurs. Autrement dit, ce sont ces derniers qui sont en pointe dans ce combat.

Autre défi de taille qui attend Facebook : l’adaptation aux techniques de plus en plus sophistiquées qu’utilisent ses adversaires pour éviter ses mesures de contrôle et répandre du contenu inapproprié. Une tendance qui justifie de continuer à investir lourdement dans les ressources humaines et technologiques pour « rendre Facebook sûr pour tout le monde » selon Guy Rosen, vice-président du département produit de la compagnie.

Article de Thierry Randretsa

Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires
Nous contacter
Les champs indiqués par un astérisque (*) sont obligatoires