Les nouveaux algorithmes de Facebook mis en place en 2019 pour mettre fin à la haine en ligne, dont le nom de code est Xlm-r, semblent fonctionner. Selon le dernier rapport sur l’application des normes communautaires, qui couvre le quatrième trimestre de 2020, ils parviennent désormais à arrêter automatiquement 97 % de ces contenus.

« Ils sont la preuve des nombreuses façons dont la technologie apporte ce progrès dont notre monde a besoin », gondoles Mike Schroepfer, 45 ans, directeur de la technologie (Cto) de la multinationale américaine, l’architecte de toutes les technologies utilisées par le plus important réseau social du monde. « Au cours des trois derniers mois de 2020, nous avons réussi à obtenir les meilleurs résultats jamais obtenus dans la détection proactive des discours de haine, de l’intimidation et du harcèlement : 97 % des contenus haineux ont été retirés de nos systèmes avant qu’un être humain ne les signale. Ils étaient de 94 % au trimestre précédent et de 80,5 % à la fin de 2019 ».

Le problème de la polarisation n’est pas mentionné dans le rapport. L’accusation portée contre Facebook est que ce sont ses algorithmes, ceux utilisés pour gérer la hiérarchie des forums de discussion des utilisateurs, qui créent les soi-disant « chambres d’écho » où nous ne confrontons que ceux qui pensent comme nous et où les positions les plus extrêmes sont privilégiées. Schroepfer lui-même avait fait valoir il y a trois mois que la polarisation avait toujours existé aux États-Unis et ailleurs et que ce n’était certainement pas la faute de Facebook si l’entreprise en était victime.

On préfère plutôt mettre l’accent sur ce qui fonctionne, sur ce que la technologie permet de réaliser. Il s’est amélioré en particulier dans certains domaines problématiques, où il n’est pas toujours facile de discerner les menaces qui se cachent derrière des mots comme intimidation et harcèlement. Dans les deux cas, le pourcentage a augmenté, sur Facebook, de 26 % au troisième trimestre 2020, à 49 % au quatrième trimestre, et sur Instagram de 55 à 80 %. Tout cela grâce à une nouvelle intelligence artificielle qui ne se limite plus à l’anglais.

Il s’agit de 6,3 millions de contenus d’intimidation et de harcèlement, 6,4 millions de contenus de haine organisée, 26,9 millions de contenus incitant à la haine et 2,5 millions de contenus concernant le suicide et l’automutilation. Sur Instagram, les chiffres sont légèrement différents : 5 millions de contenus sur l’intimidation et le harcèlement, 308 000 contenus sur la haine organisée, 6,6 millions de contenus incitant à la haine, 3,4 millions de contenus sur le suicide et l’automutilation.

« Nous pensons qu’aucune entreprise ne devrait évaluer de manière indépendante son propre travail », peut-on lire dans la déclaration de l’entreprise de Mark Zuckerberg. « L’année dernière, nous nous sommes engagés à créer un comité indépendant pour évaluer nos systèmes de modération de contenu. Un processus qui prendra pleinement forme cette année ».

La référence fait en partie référence au Conseil de surveillance de Facebook, composé de 20 personnes, qui a été créé l’année dernière et est financé à hauteur de 130 millions de dollars. Il a le pouvoir d’approuver ou d’annuler toute décision prise par le réseau social concernant le retrait d’un contenu ou l’éviction d’une personne de la plateforme. Une sorte de cour d’appel qui examine actuellement le cas de Donald Trump. Si elle se prononçait en sa faveur, M. Trump aurait immédiatement accès à ses profils et à ses partisans. Jusqu’à présent, le Conseil de surveillance a contredit jusqu’à quatre des décisions de Facebook sur les cinq qu’il a examinées.

La semaine dernière, le conseil d’administration a prolongé de sept jours le délai d’ouverture du dossier de l’affaire Trump, compte tenu des « niveaux élevés d’intérêt » qui rendent l’affaire très épineuse. La décision finale, à moins d’un nouveau report, est attendue en avril.