My Jalis - Actualité digitale et décryptage de tendances My Jalis - Actualité digitale et décryptage de tendances My Jalis - Actualité digitale et décryptage de tendances My Jalis - Actualité digitale et décryptage de tendances
Tendances, entrepreneuriat, innovations et actualité digitale : La future loi anti fake news a-t-elle déjà du plomb dans l’aile ?
RETOUR
News - Réseaux sociaux

La future loi anti fake news a-t-elle déjà du plomb dans l’aile ?

Les écueils de la loi anti fake news à venir

12/03/2018

Selon une étude américaine, les fake news se distinguent par leur vitesse de diffusion et le rôle joué par les humains dans leur propagation. Deux points qui mettent en difficulté la proposition de loi française relative à la lutte contre les fausses informations qui vient d’être rendue publique.

C’est l’arme du gouvernement pour mettre à mal les fake news pendant les périodes électorales, inscrite dans la future loi à venir sur le sujet : le référé. Ainsi, « lorsque des faits constituant des fausses informations de nature à altérer le scrutin à venir sont diffusées artificiellement et de manière massive par le biais d’un service de communication en ligne, le juge des référés peut à la demande du ministère public ou de toute autre personne ayant intérêt à agir (…) prescrire toutes mesures aux fins de faire cesser cette diffusion, telles que le déréférencement d’un site diffusant ces fausses informations ou le retrait des contenus diffusant des fausses informations. Il peut aussi ordonner (…) [le blocage des] adresses électroniques des services de communication au public en ligne diffusant ces fausses informations ». Le juge des référés du Tribunal de Grande Instance de Paris dispose d’un délai de 48 heures pour se prononcer.

Or, cette disposition pourrait s’avérer inadaptée au phénomène qu’elle est censée combattre selon les résultats d’une étude américaine.

 


La vitesse du faux


Intitulée « la propagation des nouvelles vraies et fausses en ligne », elle a été publiée récemment dans la revue Science. Elle est l’oeuvre de trois chercheurs du Massachusetts Institute of Technology (MIT) Soroush Vosoughi, Deb Roy et Sinan Aral. En se basant sur pas moins de 126 000 histoires tweetées par 3 millions de personnes 4,5 millions de fois entre 2006 et 2017, l’étude démontre que les fausses informations se diffusent plus vite, plus profondément et plus largement que les vraies sur Twitter. Elles atteignent bien plus de personnes qui sont d’autant plus enclines à les partager. Alors que « la vérité » n’est rarement portée à la connaissance de plus de 1 000 personnes, le premier pourcentage de cascades de fausses informations atteint de façon routinière entre 1 000 et 100 000 personnes.

Pire : à l’intérieur même de ces fausses informations, ce sont celles qui portent sur la politique qui sont les plus virales, autrement dit celles qui sont le plus concernées par la future loi anti fake news. Elles sont capables d’atteindre 20 000 personnes trois fois plus rapidement que tous les autres types de fake news touchant 10 000 personnes.

Le phénomène est d’autant plus inquiétant que les chercheurs se sont rendus compte que ceux qui partageaient ces fausses informations n’avaient pas forcément les comptes les plus populaires ou les plus actifs. Bien au contraire. Cela signifie donc qu’il y a quelque chose d’inhérent à ces fake news qui les rend virales. Et ce quelque chose, c’est leur nouveauté. Les chercheurs sont parvenus à « quantifier » cette propriété. Les résultats sont sans appel : les fausses rumeurs sont plus « nouvelles » que les vrais, ce que corroborent les réactions des usagers qui sont bien plus surpris à la lecture des premières.

Pour résumer : « les fausses informations sont plus nouvelles et la nouveauté a plus de chance d’être retweetée ». En quoi cela est problématique pour la future loi anti fake news ? Le juge des référés a 48 heures pour statuer ce qui est largement suffisant pour que le mal soit fait considérant la vitesse de propagation et de pénétration des fausses nouvelles. Dans l’hypothèse où une intox serait diffusée peu avant le vote, la réponse du juge interviendrait sûrement trop tard.

 


Le facteur humain


Ce n’est pas tout, le futur article 163-2 du Code électoral conditionne le référé à la diffusion artificielle des fake news. Autrement dit, elle doit être le fait de bots. C’est là une méconnaissance de la façon dont sont menées les campagnes de désinformation, fruits d’une machine parfaitement huilée dans laquelle interviennent différents professionnels en chair et en os. En haut de la chaîne, des stratèges élaborent des plans de campagne pour leurs clients. Ces plans sont ensuite exécutés par des influenceurs et des opérateurs de faux comptes. Pour la plupart de ces acteurs, orchestrer une campagne de fake news est un métier comme un autre. C’est même un moyen de gagner de l’argent dans les pays en voie de développement où sont délocalisées les tâches d’exécution. En tout cas, peu sont motivés par des convictions politiques. Et si des bots interviennent, ce n’est qu’à la marge. Comme le souligne Antonio Casilli, maître de conférences en Digital Humanities à Telecom ParisTech et chercheur associé en sociologie au Centre Edgar-Morin, les « agents automatiques [sont] trop vite repérés par les filtres anti-spam des plateformes et par les usagers avec lesquels ils sont censés interagir ».

Ce facteur humain est confirmé par l’étude du MIT. Si les robots permettent d’accélérer la diffusion des fausses nouvelles, ils ne changent pas fondamentalement la donne. C’est bien le comportement humain, entre autre influencé par l’attrait de la nouveauté, qui est en cause. Si bien que toute « politique d’endiguement de la désinformation devrait mettre l’accent sur les comportements, comme leur labellisation ou les incitations pour dissuader la propagation de la désinformation, plutôt que de se concentrer à diminuer les bots ».

 

 


Article de Thierry Randretsa

A lire aussi

Vous aussi,
Partagez l'actualité de votre entreprise