Il a seulement fallu 36 heures à un groupe d'étudiants pour résoudre le problème des fausses informations sur Facebook

A lire aussi

0

Facebook doit faire face à une tempête grandissante de critiques concernant le rôle qu'il a joué dans l'élection présidentielle américaine de 2016. Il est accusé d'avoir permis à des mensonges de propagande déguisés sous forme d'articles d'information de se propager sur le réseau social sans être vérifiés. 

La propagation de fausses informations pendant la présidentielle américaine a été tellement importante que le président sortant Barack Obama a qualifié Facebook de "nuage de poussière de bêtises."

La journaliste Alyson Shontell de Business Insider a appelé son DG Mark Zuckerberg pour obtenir une réaction de sa part. Le DG est resté "sourd" face aux critiques. Sa défense publique est que les fausses informations représentent un petit pourcentage des choses partagées sur Facebook que cela ne pouvait pas avoir un impact sur le résultat de l'élection. Et ceci même si Facebook a officiellement promis de faire mieux, en insistant sur le fait que repérer les vraies informations parmi les mensonges constituait un problème technique difficile. 

A quel point est-ce difficile pour un algorithme de faire la distinction entre les vraies informations et les mensonges ? 

Pas tant que ça en fait. 

A l'occasion d'un hackathon à l'Université de Princeton (Etats-Unis), quatre étudiants en ont créé un sous forme d'une extension pour le navigateur Chrome en seulement 36 heures. Ils ont baptisé leur projet "FiB : Stop living a lie"

Ce groupe d'étudiants est composé de Nabanita De, étudiante de seconde année de Master en informatique à UMass Amherst; Anant Goel, étudiant de première année à l'Université de Purdue; Mark Craft, étudiant de seconde année à l'Université d'Illinois Urbana-Champaign (UIUC) et Catherine Craft, en seconde année à l'UIUC.

Leur vérificateur d'informations dans le fil d'actualités Facebook fonctionne de cette manière, explique Nabanita De à Business Insider US :

"Il classe chaque post — que ce soient des photos (captures Twitter), des photos destinées à des adultes, des faux liens, des liens virus, des liens menant à des fausses informations — comme vérifié ou non-vérifié en utilisant une intelligence artificielle.

"Pour les liens, on prend en compte la réputation du site web, les croise avec une base de données de virus et de fraudes sur internet. On reprend aussi le contenu et on le recherche sur Google ou Bing, on récupère les recherches avec un taux de confiance élevé et on fait un résumé de ce lien avant de le montrer à l'utilisateur. Pour les images comme les captures Twitter, on convertit l'image en texte, on utilise les noms d'utilisateur mentionnés dans le tweet afin d'obtenir tous les tweets de cet utilisateur et on vérifie si ce tweet en question a vraiment été posté par cet utilisateur." 

Le plug-in ajoute ensuite une petite étiquette au coin du post Facebook qui dit si le post a été vérifié ou non. 

Par exemple, l'algorithme a découvert que cet article promettant que de l'herbe permettait de guérir du cancer était une fausse information. Il a donc noté que l'information n'était "pas vérifiée". 

En revanche, cet article concernant les Simpson disant que la série avait prédit les résultats de la présidentielle américaine était vraie et a donc été étiquetée comme "vérifiée". 

Les étudiants ont mis à disposition leur extension comme projet open source, pour que n'importe quel développeur puisse l'installer et le modifier. 

Un plug-in Chrome qui permet d'étiqueter les fausses informations sur Facebook n'est de toute évidence pas la solution ultime pour Facebook pour rétablir l'ordre. Dans l'idéal, Facebook retirera totalement les faux contenus, au lieu d'ajouter une petite étiquette que l'on peut rater si facilement ou de demander aux gens d'installer une extension de navigateur. 

Mais les étudiants montrent que les algorithmes peuvent être mis au point pour savoir avec une certitude acceptable quelle information est vraie ou fausse, et qu'il est possible de faire quelque chose pour informer les lecteurs qui se demandent s'ils vont cliquer sur ce lien ou pas. 

Par ailleurs, Facebook faisait partie d'une des entreprises qui sponsorisaient le hackathon. 

Beaucoup d'employés de Facebook sont très contrariés par les récentes critiques contre le réseau social, un groupe d'employés rebelles à l'intérieur de l'entreprise se sont donnés comme mission de comprendre comment résoudre ce problème, rapporte BuzzFeed. Peut-être que le projet FiB des étudiants de Princeston leur donnera une petite avance. 

Version originale : Julie Bort/Business Insider

Source: 
BI FRANCE