Facebook

© iStock/JaysonPhotography

Tech

Facebook a supprimé 1,3 milliard de faux comptes au cours des 6 derniers mois

Facebook se targue d’avoir 2,2 milliards d’utilisateurs mensuels - un chiffre astronomique - mais combien n'existent pas réellement? Probablement beaucoup, si l’on en croit son rapport de modération de contenu, publié lundi. Il indique qu’au cours des six derniers mois, la firme a désactivé près de 1,3 milliard de “faux comptes", dont une grande partie avaient été créés "dans le but de répandre du spam ou de mener des activités illégales telles que des escroqueries".

Facebook a publié pour la première fois un rapport de modération de contenu, accompagné de chiffres décrivant les contenus que l'entreprise peut être amenée à retirer du réseau social. Facebook aurait ainsi désactivé 694 millions au quatrième trimestre 2017, et 583 millions de comptes au cours de ce premier trimestre. La firme attribue la baisse du nombre entre les deux échéances à la "variabilité de la capacité de notre technologie de détection à les trouver et à les signaler". 98,5% des faux comptes et "près de 100 %" du spam ont été détectés par des algorithmes. Les 1,5% d’autres faux comptes ont été signalés par les utilisateurs du réseau social.

La plupart des comptes "ont été désactivés dans les minutes qui ont suivi leur création", explique Facebook, ce qui ne signifie pas qu’elle parvient pas à identifier tous les faux comptes. La firme estime que 3 à 4 % de ses utilisateurs actifs mensuels sont "faux", un chiffre qui aurait augmenté de 2  à 3% au cours du troisième trimestre de 2017, selon les documents publiés.

La haine, plus difficile à identifier

Au cours des 3 derniers mois, Facebook a également supprimé 837 millions de messages de spam, 21 millions de posts contenant “de la nudité ou de la pornographie pour adultes”, 3,4 millions incluant de la violence graphique et 1,9 millions de messages terroristes. La majorité de ces messages sont détectés par des algorithmes. Mais il n’en a pas été de même pour les 2,5 millions de “discours de haine”, qui ont été majoritairement (dans 62% des cas) identifiés par des humains. En effet, les messages haineux, souvent très subjectifs, dépendent d’un contexte, et parfois de subtilités de langages que les logiciels n’ont pas la capacité d’analyser. La frontière entre le discours de haine et l’exercice de la liberté d’expression est parfois mince. 

Alex Schultz, le vice-président de l'analyse des données de Facebook, explique que les retraits de contenus à caractère violent se multiplient lorsque les tensions sont exacerbées dans le monde. “Souvent, quand il y a vraiment de mauvaises choses dans le monde, une grande part d’entre elles arrivent sur Facebook”, dit-il. 

Facebook a modifié sa politique concernant les données personnelles, et a également publié un nouveau règlement concernant la politique de contenu au cours des derniers mois. La firme promet de publier ces statistiques tous les six mois désormais.

"Facebook est trop grosse"

Cela n’empêche pas Rhett Jones de Gizmodo de se montrer très sceptique: “La taille de Facebook est bien plus grande que celle qu’une entreprise devrait avoir, et l’Intelligence artificielle n’est pas prête de résoudre le problème [des contenus problématiques]. Elle a précédemment affirmé qu’elle doublerait son équipe de modérateurs humains pour la porter à 20 000 employés et sous-traitants d’ici la fin de l’année 2018. (...) Comme il ne s’agit que du premier rapport de  modération, et qu’il ne couvre que 2 trimestres des 14 ans d’histoire de l’entreprise, nous ne saurons pas quelle est la signification réelle de ces observations pendant quelque temps.”

Sur le même sujet :