Cover image

'Les jeunes modérateurs qui 'nettoient' Facebook développent des troubles de stress post-traumatique'

Dans une interview accordée au journal The Telegraph, Mary Eiken, cyberpsychologue du Centre européen de lutte contre la cybercriminalité à Europol, explique que les jeunes modérateurs de Facebook développent des symptômes de stress post-traumatique car ils sont utilisés comme filtre humain afin d'éliminer les contenus les plus horribles de l’Internet.


Facebook a annoncé qu’il allait embaucher 3.000 modérateurs supplémentaires pour examiner les contenus à caractère terroriste, les séquences vidéo d’exploitation d’enfants ainsi que tout discours de haine.

Pour la cyberpsychologue qui étudie les conséquences de la technologie sur le comportement humain, cette initiative est irresponsable. Par ailleurs, ce nombre de personnes ne fait pas le poids contre les deux milliards d’utilisateurs que compte le réseau.

« J’ai un problème éthique majeur en ce qui concerne l’emploi de 3.000 jeunes sortis de l’université exposés aux contenus extrêmes et qui sont en outre utilisés comme « filtres humains » par une entité commerciale », précise-t-elle.

Les cas les plus horribles auxquels sont confrontés ces jeunes modérateurs sont recensés dans un article du magazine Wired qui s'interroge:

« Nous avons tous déjà été affectés par quelqu’un qui dit quelque chose que nous n’apprécions pas ou par un deuil. Mais ce sont des choses sont normales. Mais est-ce qu’avoir des relations sexuelles avec un enfant de deux ans est quelque chose de normal ? Est-ce que décapiter quelqu’un lentement est normal ? Est-ce que c’est quelque chose à quoi vous vous attendez ? »

Des entreprises comme Facebook ou Google dépendent de plus en plus d’une cohorte de travailleurs qui filtrent les excès de l’humanité pour nous protéger nous les utilisateurs. Un certain nombre de politiciens et de gouvernements menacent les réseaux sociaux d’amendes montres si tout contenu inapproprié n’est pas supprimé assez rapidement. Des lois dans ce sens sont soumises aux différents parlements.

Comment protéger nos enfants ?


Ces légions d’employés se trouvent principalement aux Philippines et sont payées entre 300 et 500 dollars par mois.

Selon Hemanshu Nigam, ancien chef de sécurité de MySpace, actuellement consultant du bureau de sécurité en ligne SSP Blue, le nombre de modérateurs de contenu employés par les réseaux sociaux, les applications mobiles et les services de cloud dans le monde dépasse les 100 000, soit environ le double de la totalité des employés de Google et près de 14 fois celle de Facebook.

L’âge minimum requis pour avoir un compte Facebook est 13 ans, mais, selon Aiken, des enfants beaucoup plus jeunes se connectent tout de même et Facebook et les autres réseaux sociaux échouent dans leurs efforts pour protéger la jeunesse :

« Est-il crédible qu'une entreprise qui connaît jusqu’à la couleur de vos chaussettes ne sache pas qu’un enfant de huit ans se trouve derrière l’écran ? Bien sûr qu’ils savent que des enfants sont assis devant Facebook, mais nous n’avons pas obligé les réseaux sociaux à faire ce que nous faisons dans le monde réel. A cet âge, vous ne pouvez pas acheter d’alcool ou de cigarettes. Pourquoi avons-nous permis aux entreprises de réseaux de faire ce qu’elles veulent. Il nous appartient en tant que société d’empêcher cela. »