A mesure que TikTok gagne en popularité à travers le monde, notamment au Moyen-Orient et au Maroc, le travail de modération du contenu propre à chaque région va crescendo. Le magazine Business Insider a consacré dans ce sens un long reportage aux coulisses du travail de modérateur au Maroc, en donnant la parole à des employés, anciens et actuels, de la société Majorel, basée à Marrakech.
Neuf d’entre eux ont témoigné pour décrire leur travail et autant dire que leurs récits ont de quoi glacer le sang. Car l’envers du décor de TikTok, réseau social adulé de la nouvelle génération, est peu reluisant… Il est même cauchemardesque, gore et révélateur des pires instincts de l’être humain.
L’horreur en directGérer du contenu violent à longueur de journée a de quoi choquer et traumatiser ceux qui sont soumis à des images sans filtres. Les modérateurs ne font pas exception à la règle. C'est le cas de Imani, 25 ans, modératrice oeuvrant dans la division Moyen-Orient et Afrique du Nord de Majorel, confrontée à une vidéo où un jeune homme lance un chat en l’air avant de l’empaler sur une épée. «Je n'aurais jamais imaginé voir une telle scène dans la vraie vie. Ce n'est pas un film. Ce n'est pas une blague. C'est réel», explique la jeune femme chargée d’examiner certains des contenus les plus terrifiants de la plateforme.
Lire aussi : Tombé malade au Maroc, un tiktokeur américain se réveille à l’hôpital et s’émerveille en recevant la facture
Des images qui deux ans plus tard sont toujours gravées dans son esprit et qu’elle ne parvient pas à effacer. Pour faire face à se souvenir traumatisant, la jeune femme explique avoir créé un mur entre son travail et sa vie personnelle.
Fragilisée d’un point de vue psychologique par le contenu qu’elle modère pour 2$ de l’heure, la jeune femme n’est pas la seule à souffrir des conséquences psychologiques de ce travail réalisé depuis chez elle, en télétravail, et dans lequel elle voyait d’abord une aubaine.
C’est aussi le cas de Samira, qui a, elle, été traumatisée par la vidéo d’un vieil homme battu à mort par un groupe d’adolescents à coups de hache ou encore, celle du suicide en direct d’un homme qui s’est tiré une balle dans la tête avec un fusil de chasse. «Son cerveau est littéralement tombé sur ses genoux», a-t-elle déclaré, après avoir été contrainte de visualiser cette horreur.
L’humaine face aux limites de l’intelligence artificielle Huit autres anciens et actuels modérateurs marocains de la plateforme interviewés dans le cadre de l’article évoquent la même détresse psychologique, bien que TikTok ait déclaré à Business Insider que la société s’associait à des sociétés de sous-traitance pour promouvoir un environnement bienveillant pour les employés.
Lire aussi : Le «Labello Challenge», le nouveau défi TikTok qui pousse les jeunes au suicide
Or, confie un ancien modérateur devenu aujourd’hui formateur au sein de l’entreprise de sous-traitance marocaine, à mesure que TikTok devient populaire, avec des projections de 30% d’utilisateurs en plus cette année seulement pour le Moyen-Orient et l’Afrique du Nord, la quantité de contenu graphique à modérer s’accélère elle aussi.
Pour y faire face, Bytedance, société-mère de TikTok, augmente chaque année ses effectifs de modération dans la région, avec, selon des estimations, près de 1400 modérateurs à travers le Maroc. La question d'un nécessaire soutien psychologique apporté à ces modérateurs se pose, car bien que TikTok ait recours à l’intelligence artificielle pour aider à réviser le contenu de la plateforme, le problème réside dans le fait que cette technologie devient médiocre dès lors que les langues utilisées diffèrent de l’anglais.
Les modérateurs marocains, victimes de cette défaillance linguistique de la plateforme, sont donc contraints de passer en revue des vidéos cauchemardesques non filtrées par l’intelligence artificielle, avec pour principale mission de s’assurer que les publicités d’entreprises réputées ne se retrouvent pas associées à des vidéos de pédopornographie par exemple.
La gestion de la détresse psychologique La cadence de visionnage du contenu est elle aussi inhumaine, avec, comme en témoigne Samira, 23 ans, deux cent vidéos à modérer toutes les heures, un score de prévision à atteindre de 95% et un nouvel objectif de dix secondes de visionnage par vidéo.
Des objectifs impossibles à atteindre pour les personnes qui témoignent et dénoncent le fait d’être traités «comme des robots» et non plus des êtres humains par la direction, avec des temps de pause inférieurs à ceux dont disposent les modérateurs aux Etats-Unis, est-il par ailleurs expliqué.
Lire aussi : «Derrière nos écrans de fumée»
Pour aider ces employés à faire face à la détresse psychologique dans laquelle ils sombrent peu à peu, l’entreprise déploie certes en interne les services de conseillers en bien-être, mais, confie Samira, ce service a des limites. Et pour cause, explique la jeune femme qui était amenée à consulter un «conseiller bien-être» une fois par mois, chaque fois qu’elle se rendait en consultation, ce conseiller changeait, chose qui rendait ardue la réactivité aux problèmes psychologiques auxquels elle était confrontée.
D’autres modérateurs se plaignent quant à eux du manque d’effectifs de ces «conseiller bien-être», mais évoquent aussi leur méfiance à se confier à eux, de peur d’être stigmatisés dans l’entreprise, mais aussi par la société marocaine, où le simple fait d'aller consulter un psychologue est encore mal vu.
De son côté, le groupe Majorel a déclaré via son porte-parole que des réunions supplémentaires avec des psychologues étaient organisées pour les modérateurs traitant des contenus sensibles. Un suivi psychologique pris en charge par l’entreprise certes, mais qui prend fin s'ils en viennent à démissionner. Encore leur faut-il, ensuite, avoir les moyens financiers de consulter un psychologue ou de trouver par eux-mêmes une guérison, une forme de résilience... Mais comment?