GOOGLE ET YOUTUBE ABORDENT la modération de contenu comme le font tous les autres poids lourds de l’industrie des réseaux sociaux : en sous-traitant la majeure partie du travail.
L’un de ces sous-traitants, la société américaine Accenture, gère le plus grand centre de modération de contenu aux États-Unis, à Austin, au Texas. Des centaines de modérateurs travaillent dans ce centre, 24 heures sur 24, pour nettoyer YouTube de ses contenus inappropriés.
Peter est un de ces modérateurs. YouTube effectue pour lui et ses collègues un premier tri de contenus problématiques. Ces contenus sont placés dans diverses « files d’attente » numériques, classées par thèmes, auxquelles les modérateurs ont accès. YouTube estime qu’en se concentrant sur un thème, les modérateurs acquièrent une expertise particulière. Il y a donc une file d’attente pour les questions de droits d’auteur, une autre pour les appels à la haine et le harcèlement, une autre encore dite « adulte » pour la pornographie.
Celle sur laquelle Peter travaille est la pire : la file d’attente EV, pour extrémisme violent. Elle renferme le contenu le plus horrible qui doit être retiré des plateformes de Google.
Comme tous les emplois de modérateur de contenu qui impliquent une exposition quotidienne à des sévices et à de la violence, ce job a eu des conséquences sérieuses et durables sur les personnes qui font le même boulot que Peter.
Au cours de la dernière année, il a vu un de ses collèges s’effondrer, tellement affligé par le contenu des vidéos qu’il avait visionnées qu’il a dû s’absenter pendant deux mois sans salaire. Un autre collègue, miné par l’anxiété et la dépression causées par son travail, négligeait tellement son alimentation qu’il a fallu l’hospitaliser à cause d’une carence aiguë en vitamines.
Peter s’inquiète pour sa santé mentale à long terme. Depuis qu’il travaille pour la file d’attente EV, il a perdu des cheveux et pris du poids. Il est devenu plus susceptible et s’énerve facilement. Lorsqu’il roule en voiture près de son bureau, même les jours de congé, son cœur se met à palpiter.
« Chaque jour, vous voyez une décapitation ou un gars qui tire sur sa petite amie, raconte-t-il. Après, vous vous dites : wow, le monde est vraiment fou ! Vous vous sentez mal. Vous perdez votre raison de vivre. Vous vous demandez : pourquoi les humains se font-ils autant de mal entre eux ? »
Peter fait ce travail depuis près de deux ans, et sa famille lui demande régulièrement de démissionner. Mais il craint de ne pas trouver un emploi aussi bien rémunéré : 18,50 dollars américains l’heure, soit environ 37 000 dollars américains par année.
Tout comme bon nombre de ses collègues de la file d’attente EV, Peter est un immigrant. Accenture recrute des dizaines d’arabophones comme lui. Beaucoup ont grandi au Moyen-Orient, et l’entreprise a besoin de leurs aptitudes linguistiques. Peter, par exemple, parle sept dialectes arabes, un atout pour déterminer avec précision ce qui constitue des propos haineux et de la propagande terroriste sur YouTube.
Plusieurs travailleurs à qui j’ai parlé rêvent de devenir des citoyens américains, un exploit devenu plus ardu sous l’administration Trump. Ils craignent de compliquer encore plus leur démarche d’immigration s’ils se confient à un journaliste ou s’ils critiquent leurs conditions de travail auprès d’un superviseur. (Pour cette raison, la plupart des employés qui témoignent dans ce reportage le font sous un pseudonyme.)
Peter et les autres modérateurs d’Austin rêvent d’obtenir un jour les mêmes conditions de travail que celles dont jouissent les employés à temps plein de Google qui visitent parfois leur bureau : un salaire plus élevé, une meilleure assurance maladie, et des gestionnaires plus empathiques pour alléger un peu le fardeau de leur travail. « Nous voyons comment les employés de Google se comportent quand ils viennent ici : ils se sentent plus libres que nous », me dit Peter.
Pendant plusieurs mois, alors que je préparais ce reportage, j’ai pensé comme lui. Si Google cessait de faire affaire avec des sous-traitants comme Accenture, si les modérateurs étaient des employés à temps plein de Google, s’ils touchaient le même salaire qu’un policier ou un pompier, peut-être que le lourd tribut psychologique qu’ils doivent payer à la suite de cette exposition constante à des scènes de violence pourrait être atténué.
C’est alors que j’ai rencontré une ancienne modératrice de contenu de Google. Daisy Soderberg-Rivkin gagnait un très bon salaire et bénéficiait d’excellents avantages sociaux. Mais aucun de ces privilèges ne l’a protégée des dommages que le contenu dérangeant auquel elle était exposée chaque jour allait lui causer.
Daisy a consacré une année à extirper des plateformes de Google des images de terrorisme et de sévices sur des enfants. Elle souffre aujourd’hui d’anxiété et de fréquentes attaques de panique. Elle peine à interagir avec des enfants sans fondre en larmes.
Selon le psychiatre qui la soigne, elle est victime d’un syndrome de stress post-traumatique.
DAISY SODERBERG-RIVKIN TRAVAILLAIT COMME assistante juridique, en 2015, lorsqu’elle a pris connaissance d’une offre d’emploi de Google. Le libellé du titre d’emploi utilisait un euphémisme opaque : legal removals associate (associé aux retraits juridiques). De tels euphémismes sont une pratique assez courante pour tous les affichages de poste de modérateur de contenu.
Daisy a grandi avec les services de Google. Le seul nom de l’entreprise évoque pour elle un genre d’Éden, avec tous ces petits avantages très médiatisés offerts aux employés : cafés et cuisinettes, massages et nettoyage à sec gratuits. L’emploi proposé est au siège social de la société, à Mountain View, en Californie. L’équipe déménagera un peu plus tard vers un bureau-satellite situé non loin de là, à Sunnyvale. Le poste, à temps plein, offre la gamme complète des avantages sociaux. La rémunération de base est de 75 000 dollars américains par année, à laquelle s’ajoutent des actions de Google, ce qui porte le tout à un total de près de 90 000 dollars. « Je n’obtiendrai jamais ce job », se dit-elle. Elle postule quand même.
L’offre d’emploi disait que le travail consistait à traiter des demandes juridiques visant à retirer des liens des recherches Google pour cause de violations de droits d’auteur, de diffamation ou de tout autre contenu inapproprié.
Selon l’offre d’emploi, les associés (comme Google les appelle) devaient aussi examiner des liens contenant des images de sévices commis sur des enfants. « Je me souviens très bien que, entre parenthèses, il était dit que ce type de contenu serait limité à une ou deux heures par semaine », raconte Daisy.
Nettoyer les plateformes de Google requiert la collaboration de plusieurs équipes au sein de l’entreprise. Pour la plupart, les vidéos signalées comme contenant des images de terrorisme ou d’exploitation d’enfants sont visionnées par des sous-traitants comme ceux d’Austin. Mais Google embauche aussi des employés à temps plein pour traiter des demandes juridiques provenant d’organismes publics ou d’organisations gouvernementales et, lorsque c’est nécessaire, retirer des résultats de recherche Web, des images, des vidéos ou des liens.
Quelques mois après avoir postulé, Daisy est contactée par un recruteur. Au terme de huit séries d’entrevues, Google lui fait miroiter l’effet positif que son travail aura sur le monde. « Vous allez soutenir la liberté d’expression en ligne, lui dit-on. Vous contribuerez à faire d’Internet un lieu plus sécuritaire. »
« J’ai eu l’impression que travailler chez Google, c’était mettre une cape de défenseur des libertés, un verre de kombucha gratuit à la main, entre deux siestes dans des capsules de repos, dit-elle. De temps à autre, j’aurais à voir des contenus problématiques. Est-ce que ça pouvait vraiment être si difficile ? »
Elle a téléphoné à sa mère pour lui dire qu’elle acceptait le boulot. Elle avait 23 ans.
En octobre 2019, Google a déclaré avoir retiré en 2018 quelque 160 000 contenus d’extrémisme violent de plateformes comme Blogger, Google Photos et Google Drive. Soit environ 438 par jour !
Daisy n’avait aucun historique de problèmes de santé mentale et n’a pas songé aux conséquences que ce nouveau travail pourrait avoir sur son état psychologique. Pas plus que Google ne l’a fait, semble-t-il. Au cours de son intégration en emploi, l’entreprise ne lui a donné aucune formation en lien avec ce que les travailleurs de ce domaine appellent la « résilience », c’est-à-dire l’utilisation d’outils psychologiques pour supporter l’exposition à un volume élevé de textes, d’images et de vidéos explicites et dérangeants.
Comme elle parle couramment français, Daisy est affectée aux requêtes venant de France. Rapidement, elle devient la chef du programme terrorisme de Google pour le marché français. Chaque jour, elle trie les signalements de sa file d’attente et décide si Google est contrainte — par la loi ou par ses propres conditions générales d’utilisation — d’éliminer ces liens.
À son grand étonnement, sa file d’attente commence à déborder de violence. Le 13 novembre 2015, des terroristes ayant prêté allégeance au groupe armé État islamique (EI) tuent 130 personnes et en blessent 413 autres à Paris et dans sa banlieue de Saint-Denis. La majorité des victimes sont fauchées lors d’une fusillade de masse au beau milieu d’un concert au Bataclan. « Tu passes alors ta journée entière à regarder des images de cadavres et de blessés allongés sur le plancher d’une salle de spectacle. Tes neurones ne fonctionnent plus comme ils devraient. Tout est au ralenti. »
Quelques mois plus tard, le 14 juillet 2016, un attentat au camion-bélier (revendiqué par l’EI) fait 86 morts et 458 blessés sur la promenade des Anglais, à Nice. Des liens vers des photos et des vidéos de cet attentat s’empilent dans la file d’attente de Daisy. Ses superviseurs lui mettent la pression pour qu’elle traite rapidement cette accumulation de requêtes. La jeune femme craint une mauvaise note à son dossier si elle n’obtempère pas. Elle tente donc de travailler plus rapidement, mais peine à la tâche. « Tout ce que tu vois, c’est le nombre qui monte dans ta file d’attente. »
GOOGLE OFFRE UNE GRANDE VARIÉTÉ DE SERVICES Internet, dont certains attirent des milliards d’usagers. Conséquence : l’entreprise a besoin d’une véritable armée de modérateurs.
Les contenus pour lesquels des usagers demandent un examen sont en majorité bénins et même assez ennuyeux. Des annonces indésirables doivent être enlevées de la plateforme publicitaire Google Ads, par exemple, ou de fausses adresses professionnelles doivent être retirées de Google Maps.
Mais des contenus dérangeants peuvent se retrouver partout où les politiques de Google permettent à des usagers de les téléverser. En octobre 2019, l’entreprise a déclaré avoir retiré en 2018 quelque 160 000 contenus d’extrémisme violent de plateformes comme Blogger, Google Photos et Google Drive. Soit environ 438 par jour !
Même sur YouTube, une grande partie des contenus soumis par les usagers pour examen sont anodins. Lorsqu’aucune vidéo n’est en attente dans leur file, les modérateurs se tournent les pouces.
Une modératrice d’origine finlandaise (affectée aux contenus en finlandais) m’a raconté avoir passé deux mois à ne rien faire durant toutes ses journées de travail. Parfois, elle examinait une ou deux vidéos pendant un quart de travail de huit heures. Elle passait ses journées à flâner sur Internet, m’a-t-elle dit, avant de démissionner le mois dernier pour cause d’ennui.
L’expérience d’autres modérateurs varie beaucoup selon la tâche qui leur est assignée, l’endroit où ils sont basés et l’empathie de leurs superviseurs. Plusieurs m’ont dit apprécier leur travail, parce que les tâches sont simples et leur laissent beaucoup de temps dans la journée pour se détendre et regarder des vidéos. D’autres trouvent gratifiante l’idée qu’ils contribuent à nettoyer YouTube et Google de leurs vidéos violentes et problématiques.
« Globalement, les employés estiment que c’est un travail très facile et qu’ils n’ont aucune raison de s’en plaindre », m’a dit par courriel un modérateur de YouTube en Inde qui gagne 850 dollars américains par mois. « Nous passons notre temps de bien-être à jouer aux chaises musicales, à Pictionary, aux charades. Nous avons du plaisir ! »
« Plaisir » n’est pas un mot employé par les modérateurs affectés à la file d’attente du terrorisme que j’ai pu interviewer.
Ils ont plutôt parlé de crampes musculaires, de compulsions alimentaires et d’une pauvreté croissante (les loyers augmentent à Austin). Ils ont décrit des superviseurs qui leur refusaient leur temps de pause, les congédiaient pour des prétextes futiles et modifiaient leurs heures de travail sans avertissement.
Les modérateurs les plus affectés par la violence ont exprimé une anxiété grandissante concernant les conséquences d’être témoins quotidiennement de dizaines de scènes de meurtre.
« Je mentirais si je disais que ça ne m’affecte pas », dit Tariq, qui travaille depuis 18 mois pour la file d’attente EV. « Ce qu’on voit chaque jour, ça nous change inévitablement. »
QUAND SON QUART DE TRAVAIL SE TERMINE, PETER essaie de se détendre. Avec le temps, c’est devenu de plus en plus difficile. Les films d’action qu’il appréciait dans le passé lui semblent de moins en moins fictifs. Chaque coup de feu, chaque mort, il les ressent désormais comme s’ils étaient réels. « Même si je sais que c’est de la fiction », explique-t-il.
Certains de ses collègues s’en sortent en consommant des drogues. Surtout du cannabis.
Depuis que Google s’est associée avec Accenture pour accélérer le traitement des vidéos de violence extrême au Texas, Peter a vu ses collègues devenir de plus en plus distants. « Au début, tout le monde se saluait avec des “Salut, ça va ?”, se souvient-il. Tout le monde était amical. Maintenant, personne n’a envie de parler aux autres. »
Peter a rejoint le programme en 2017, l’année de sa création. À cette époque, YouTube subissait beaucoup de pression publique pour nettoyer sa plateforme. Des journalistes et des universitaires enquêtaient sur le service. Ils y avaient trouvé quantité de vidéos contenant des discours haineux, du harcèlement, de la désinformation sur des tueries de masse et des éléments dommageables pour les enfants. (Nombre de ces vidéos ont même été trouvées sur YouTube Kids, une application que l’entreprise avait lancée dans le but d’orienter les enfants vers des contenus plus sécuritaires.)
Dans la foulée de ces enquêtes, la chef de la direction de YouTube, Susan Wojcicki, a annoncé que sa société hausserait à 10 000 le nombre de ses modérateurs. Ce qui a été fait. Une partie d’entre eux — Google a refusé de dire combien — ont été embauchés aux États-Unis, le plus grand groupe étant établi à Austin.
Les modérateurs de contenu qui travaillent pour des sous-traitants gagnent tout juste le salaire minimum aux États-Unis. En comparaison, les modérateurs à temps plein chez Google empochent plus de 90 000 dollars américains par année, et cela n’inclut pas les primes et les options d’achat. Les travailleurs temporaires, les contractuels et les employés de fournisseurs de services forment aujourd’hui 54 % de la main-d’œuvre de l’entreprise.
Kristie Canegallo, vice-présidente à la confiance et à la sécurité chez Google, supervise des milliers de modérateurs de contenu. Selon elle, travailler avec des entreprises comme Accenture aide Google à ajuster plus efficacement ses niveaux d’effectifs. Si Google met au point un nouvel outil pour repérer les mauvaises vidéos, elle aura initialement besoin de plus de modérateurs pour roder le système. Mais par la suite, moins de modérateurs seront nécessaires.
« Faire affaire avec des fournisseurs externes nous aide vraiment à avoir plus de flexibilité pour nous ajuster à la demande changeante », dit Kristie Canegallo, qui a rejoint Google en 2018, après avoir servi comme chef de cabinet adjointe du président américain Barack Obama.
Le travail accompli par les sous-traitants (comme Accenture, à Austin) est essentiel — crucial même — pour l’existence de YouTube. De nombreux pays ont en effet adopté des lois qui forcent l’entreprise à retirer de sa plateforme les vidéos contenant des images à caractère terroriste, et ce, dans un délai parfois aussi court que 24 heures après la réception d’une dénonciation.
DAISY A ÉTÉ TROUBLÉE PAR LES IMAGES de terrorisme, mais encore plus perturbée par ce que Google appelle child sexual abuse imagery (images de sévices sexuels sur des enfants). L’offre d’emploi précisait qu’elle ne serait exposée à de tels contenus qu’une ou deux heures par semaine. Dans les faits, ce type de contenus représentait une part beaucoup plus importante de son travail.
Visionner de telles images est illégal dans la plupart des cas. Alors Google a créé ce que les modérateurs ont surnommé le « war room », une pièce sécurisée où ils peuvent regarder ces images sans risquer que des collègues les voient par inadvertance.
Au départ, l’entreprise prévoyait une rotation du personnel. Daisy, par exemple, pouvait être affectée à ce type de contenus pendant six semaines, puis retourner pendant six semaines à son travail habituel. Mais des pénuries chroniques de personnel, doublées d’un taux de roulement élevé chez les modérateurs, ont fait qu’elle a dû voir toutes les semaines des images de sévices sexuels sur des enfants.
« Nous avons commencé à comprendre que notre problème n’était pas une priorité pour l’entreprise, raconte-t-elle. Lorsque nous leur faisions part de nos préoccupations, on nous répondait : “Écoutez, nous n’avons simplement pas le budget.” Le mot “budget” revenait souvent. » (Google a déclaré des revenus de 110 milliards de dollars américains en 2018.)
Après un an de ce régime, l’amoureux de Daisy lui fait remarquer que sa personnalité a changé. « Tu es très nerveuse, tu sursautes facilement, lui dit-il. Tu parles dans ton sommeil. Parfois, tu cries. »
Les cauchemars de Daisy empirent. Elle est toujours fatiguée. Un jour, un colocataire arrivé derrière elle la pousse gentiment du doigt. Elle se retourne instinctivement et le frappe. « C’était un réflexe, raconte-t-elle. J’ai pensé : cette personne veut me faire du mal. J’associais tout ce qui m’arrivait avec ce que je voyais dans les vidéos. »
Parfois, quand Daisy pensait à son travail, elle se voyait avancer dans une sombre allée bordée des atrocités qu’elle avait visionnées. Les pires violences, les pires sévices dont elle avait été témoin semblaient prendre forme physique et l’attaquer.
Un autre jour, Daisy marche dans les rues de San Francisco avec des amis quand elle voit un groupe de bambins d’âge préscolaire. Accompagnés d’une éducatrice, ils déambulent en file indienne en tenant une corde, de manière à ne pas s’éloigner du groupe.
« J’ai cligné des yeux, et tout à coup, certaines des images que j’avais vues au travail me sont revenues en tête : des enfants attachés, des enfants de cet âge — pas plus de trois ans — qui se faisaient violer. J’ai vu la corde, et mon esprit l’a associée avec les images que j’avais vues d’enfants et de cordes. Et soudainement, tout s’est arrêté. J’ai dû m’asseoir et j’ai éclaté en sanglots. »
C’était sa première crise de panique.
Au cours des semaines suivantes, Daisy prend ses distances avec ses amis et ses colocataires. Elle ne veut pas leur parler de son travail, de peur de les accabler. Celui-ci consiste à retirer ces images d’Internet, justement pour éviter qu’elles ne tourmentent d’autres personnes. En parler lui semble une trahison de sa mission.
À cette époque, une thérapeute employée par Google est à la disposition des modérateurs exposés à des contenus illégaux. Toutefois, elle n’est disponible qu’à des intervalles irréguliers, et son calendrier se remplit rapidement. Daisy considère cette thérapeute comme chaleureuse et sympathique, mais il est difficile de prendre rendez-vous avec elle.
« On recevait un courriel disant : “La thérapeute sera ici tel jour”, et il fallait répondre très rapidement, car son horaire se remplissait immédiatement. Tout le monde avait des problèmes. » Lorsque Daisy décroche finalement un rendez-vous, la thérapeute lui conseille de consulter un psychologue en privé.
Daisy devient de plus en plus irritable. Elle demande à ses proches d’éviter de la toucher. Invitée à l’anniversaire d’un enfant de trois ans, elle quitte rapidement la fête. Elle ne supporte plus d’être en présence de bambins. Chaque fois qu’elle les regarde, elle imagine des gens qui leur font du mal.
À mesure que sa santé mentale décline, Daisy peine davantage à répondre aux exigences de son emploi. Elle pleure de plus en plus au travail, parfois aux toilettes, parfois devant le bâtiment. Quelquefois, elle s’endort à son bureau.
Au terme de sa première année, son superviseur demande à la voir. Ils se rencontrent dans une salle de conférences. « Tu ne vides pas assez rapidement ta file d’attente, lui dit-il. Nous avons besoin que tu augmentes ta productivité. »
Daisy est fatiguée ce jour-là — elle l’est en permanence —, et ces reproches la mettent en colère. « J’ai explosé », se souvient-elle. Elle lance à son superviseur : « Comment voulez-vous que j’augmente ma productivité ? Avez-vous une idée de ce à quoi mon cerveau ressemble en ce moment ? Comprenez-vous ce que nous devons regarder ? Nous ne sommes pas des machines. Nous sommes des humains. Nous avons des émotions. Et ces émotions sont sérieusement marquées par le fait de regarder des enfants se faire violer et des gens se faire décapiter. »
Parfois, quand Daisy pensait à son travail, elle se voyait avancer dans une sombre allée bordée des atrocités qu’elle avait visionnées. Les pires violences, les pires sévices dont elle avait été témoin semblaient prendre forme physique et l’attaquer. « J’avais le sentiment que tout le mal de l’humanité se déversait sur moi, dit-elle. Et il n’y avait aucune manière d’y échapper. Et là, quelqu’un me disait : “Allez, tu dois retourner dans cette allée sombre. Continue !” »
Quelques jours après cette rencontre, Daisy annonce à son superviseur qu’elle prend un congé de maladie pour soigner les traumatismes psychologiques dus à son travail. Plusieurs autres membres de son équipe ont pris le même chemin récemment. Elle pense s’absenter quelques semaines, peut-être quatre. Elle ne retournera pas chez Google avant six mois.
LES IMAGES DE MASSACRES ENTRENT PLUS VITE dans les bureaux d’Austin que ce que l’équipe peut traiter. Même avec des centaines de modérateurs se relayant sur trois quarts de travail, Accenture peine à traiter toutes les vidéos de brutalité que les internautes signalent. La file d’attente EV est dominée par les vidéos issues du Moyen-Orient. Depuis 2017, Accenture a recruté des dizaines de modérateurs arabophones pour les traiter.
Nombre de ces employés sont de récents immigrants qui travaillaient auparavant comme gardes de sécurité ou conducteurs de camion de livraison. Souvent, c’est par un ami qu’ils ont découvert le travail de modérateur.
« Nos diplômes n’ont pas été reconnus lorsque nous avons émigré aux États-Unis, raconte Michael, employé du centre d’Austin depuis deux ans. Alors nous avons pris n’importe quel travail. Nous avions besoin de gagner notre vie. »
Ces employés sont reconnaissants, au départ, de travailler pour une grande société technologique comme Google — même si, dans les faits, ils bossent pour un sous-traitant. (Google floute les lignes d’appartenance de ces modérateurs. Même s’ils travaillent pour Accenture, ils ont des adresses courriel se terminant par @google.com.)
« J’étais content de travailler enfin dans un bureau, raconte Peter. J’imaginais ma future carrière et toutes les perspectives que ce travail allait m’offrir. »
Jusqu’à leur intégration, la nature exacte de leur travail dans la file d’attente EV demeure opaque pour les nouveaux employés. « Je n’avais aucune idée de ce que ça pouvait représenter, se souvient Peter. On ne vous le dit pas. »
Si deux heures de temps de bien-être sont l’idéal, à Austin ce n’est pas la norme. Quatre employés m’ont dit qu’on leur avait refusé leur temps de pause lorsque la file d’attente était particulièrement longue.
Chez Accenture, les modérateurs doivent traiter 120 vidéos par jour, en cinq heures de travail. La société leur accorde quotidiennement deux heures rémunérées de temps dit de bien-être et une heure de repas non rémunérée le midi. (Susan Wojcicki, de YouTube, a promis en 2018 de réduire ce fardeau à quatre heures de travail, mais la promesse ne s’est pas concrétisée. Accenture, de son côté, nie imposer des quotas de productivité à ses employés.)
Les heures de bien-être doivent permettre aux employés de décompresser : balade à pied à l’extérieur, rencontre avec un thérapeute de service au bureau, activités ludiques avec des collègues. « Au début, ces mesures étaient vraiment très bien, se souvient Michael. Si on voyait une vidéo atroce, on pouvait faire une pause, fermer notre écran, aller faire une marche… »
Google offre à ses modérateurs beaucoup plus de temps de repos que ne le fait Facebook, où les modérateurs n’ont que des pauses de 15 minutes, un dîner de 30 minutes et 9 minutes de temps de bien-être. (Facebook estime qu’en prenant en compte le temps consacré à la formation et au développement professionnel, ses modérateurs visionnent des vidéos six heures par jour.)
« Nous révisons constamment nos programmes de bien-être, de manière à créer un environnement qui soutient les employés, déclare-t-on chez Accenture. À Austin, nos employés ont un accès illimité aux programmes de soutien, ce qui inclut l’accès à un thérapeute sur demande et des rencontres de prévention. Les employés sont encouragés à soulever toute inquiétude concernant leur travail par l’entremise de ces programmes. »
Or, si deux heures de temps de bien-être sont l’idéal, à Austin ce n’est pas la norme. Quatre employés m’ont dit qu’on leur avait refusé leur temps de pause lorsque la file d’attente était particulièrement longue. Il y a six mois, ils ont aussi dû négliger leur temps de pause pour atteindre leur utilization score, une mesure servant à calculer combien de temps ils passent activement à visionner des vidéos. Des logiciels de surveillance installés sur leur ordinateur enregistrent chaque minute de vidéo qu’ils regardent, avec un objectif de cinq heures par jour. Le temps consacré à d’autres tâches — comme lire ou répondre à des courriels, participer à des rencontres d’équipe — ne compte pas dans ce calcul. Cette nouvelle mesure force souvent des employés à rogner sur leur temps de pause pour atteindre l’objectif de cinq heures de visionnement.
La fausse promesse de pauses plus longues est cohérente avec l’image d’ensemble de leurs conditions de travail que peignent les modérateurs de contenu travaillant dans des centres similaires dans différents coins du monde.
Lorsque de nouveaux centres entrent en service, les superviseurs commencent par rallier les nouveaux employés autour de leur noble mission : rendre Internet plus sécuritaire pour tous. Au début, les modérateurs jouissent des mêmes libertés que celles que les employés de Facebook ou de Google tiennent pour acquises : la liberté d’aller aux toilettes sans demander la permission, celle de manger à leur poste de travail, celle de déterminer quand prendre des vacances.
Plus le temps passe, plus des sous-traitants comme Accenture et Cognizant retirent aux employés ces quelques libertés, souvent sans explication. Au centre d’Austin, manger à son bureau a été interdit. Des superviseurs ont commencé à demander aux employés pourquoi ils passaient autant de temps aux toilettes (alors qu’ils ne s’étaient absentés que six ou sept minutes). Les téléphones cellulaires — que les employés pouvaient conserver à leur poste de travail — ont à leur tour été interdits, apparemment pour des raisons de confidentialité.
L’interdiction des cellulaires a généré des situations tragi-comiques au bureau d’Austin. Certains logiciels d’Accenture exigent en effet que les employés se connectent avec une authentification à deux facteurs. Cette identification expire dans un certain délai si l’employé n’introduit pas un code qui lui est envoyé… sur son cellulaire personnel. Les employés doivent donc courir vers leur casier (où leur cellulaire est rangé pour cause d’interdiction dans la zone de travail), déverrouiller la porte, ouvrir leur cellulaire, noter le code et repartir à la course vers leur poste de travail pour entrer le code avant que le délai n’expire.
Papier et crayons étant aussi interdits dans la zone de travail, les employés qui craignent d’oublier le numéro de code dans leur course folle le griffonnent sur la paume de leur main avant de refermer le cellulaire, de verrouiller le casier et de repartir en courant.
Deux employés d’Austin m’ont dit qu’on leur avait refusé des vacances à cause de trop longues files d’attente pour les vidéos de terrorisme. D’autres ont été transférés vers des quarts de travail différents sans aucune explication. Les modérateurs de YouTube n’ont pas reçu d’augmentation de salaire depuis deux ans, même si les loyers à Austin sont parmi ceux qui ont connu les hausses les plus importantes au pays. (Selon Accenture, la vaste majorité des employés reçoivent des hausses salariales annuelles.) Peter m’a dit qu’il dépensait 50 % de son salaire pour payer le loyer. La vie à Austin est de plus en plus chère. Et son salaire ne suit pas.
« Ils nous traitent très mal, dit Michael. Ils ont tellement de manières de nous brimer si nous n’obéissons pas. »
LORSQU’ELLE A QUITTÉ GOOGLE POUR PARTIR EN congé de maladie, Daisy a été vue par un psychiatre et un thérapeute. Diagnostic ? Syndrome de stress post-traumatique et anxiété chronique. Elle a commencé à prendre des antidépresseurs.
En thérapie, Daisy a découvert que sa baisse de productivité, qui frustrait tant ses superviseurs, n’était pas de sa faute. Son thérapeute — qui avait traité d’autres anciens modérateurs de contenu — lui a expliqué que chaque personne réagit différemment à une exposition répétée à des images émotivement dérangeantes. Certains mangent de plus en plus et prennent du poids. Certains se mettent à faire de l’exercice de manière compulsive. D’autres, comme Daisy, ressentent de la fatigue et de l’épuisement.
Daisy se souvient que le thérapeute lui a dit : « Ce n’est pas votre problème, mais le problème de votre employeur. C’est lui le responsable. Il a créé ce boulot. Il doit investir les ressources nécessaires pour atténuer ses effets indésirables. »
Le thérapeute a suggéré à Daisy de s’offrir un chien. Elle a adopté une chienne de berger à la SPCA et l’a nommée Stella.
Stella et Daisy ont suivi ensemble une formation qui a permis à la chienne d’offrir du soutien émotionnel à sa maîtresse. Stella a appris à reconnaître les signes d’une attaque de panique chez Daisy et à adopter des comportements susceptibles de l’aider.
Daisy a commencé à emmener Stella à l’hôpital Benioff pour aller visiter des enfants malades. Avec le temps, elle a réussi à interagir avec les enfants sans qu’une attaque de panique se déclenche. « Voir des enfants caresser mon chien a eu une influence profonde sur ma capacité à aller de l’avant dans ma relation avec eux », dit-elle.
Daisy est reconnaissante d’avoir obtenu un congé payé pour se soigner (alors que certains sous-traitants n’en offrent pas). « J’ai eu des mois pour réfléchir à mes choix, envisager des manières de m’en sortir, sans subir en plus le stress du chômage et la pression de me demander comment j’allais payer mon loyer. »
Six mois après le début de son congé, Daisy est retournée au travail. À sa grande consternation, rien dans l’attitude des superviseurs n’avait changé.
« Ils s’informaient, bien sûr. Ils me disaient : “Comment ça va ? Comment te sens-tu ? On va y aller doucement pour ton retour.” Mais au final, l’objectif était le même : c’était que j’atteigne le niveau de productivité requis. »
Une semaine après son retour, elle prend la décision de poursuivre des études de 2e cycle. Elle est acceptée à l’École de droit et de diplomatie Fletcher, de l’Université Tufts, près de Boston, où elle a récemment décroché son diplôme de maîtrise.
Aujourd’hui, elle est chercheuse associée à l’Institut R Street, un groupe de réflexion basé à Washington. Son travail porte surtout sur les enfants et la technologie. Elle puise dans son expérience de travail chez Google pour sensibiliser les législateurs aux problématiques de modération de contenu, d’exploitation des enfants et de droit des enfants à la vie privée. « Ce qui m’est arrivé nourrit mon désir de susciter des changements », dit-elle.
PENDANT CE TEMPS, À AUSTIN, ACCENTURE a mis en place une série de nouvelles mesures, et des employés disent pour blaguer qu’ils sont des sujets d’expérimentation. « Nous ne sommes que des rats de laboratoire pour eux, dit Peter. Ils essaient différentes choses avec nous. »
Et c’est tout à fait vrai, du moins en ce qui concerne un petit groupe de fournisseurs de services.
Début 2019, Google a présenté un rapport de recherche à la Conference on Human Computation and Crowdsourcing. Intitulé Testing Stylistic Interventions to Reduce Emotional Impact of Content Moderation Workers (mise à l’essai d’interventions stylistiques pour réduire les conséquences émotionnelles chez les modérateurs de contenu), ce rapport décrivait deux expériences menées par l’entreprise sur ses modérateurs.
Dans le cadre de la première expérience, les vidéos au contenu dérangeant visionnées par les employés leur sont présentées en noir et blanc au lieu d’être en couleur. Dans la seconde expérience, les images vidéos sont floutées. Manipuler ainsi les images en réduit-il les répercussions psychologiques sur les modérateurs ? se demandent les chercheurs.
« Notre responsabilité et notre engagement auprès des membres de nos équipes qui visionnent ce contenu sont de leur offrir le meilleur soutien possible pour qu’ils puissent accomplir leur travail, m’a expliqué Kristie Canegallo. Ce que Google découvrira pour améliorer les conditions de travail, elle compte bien le communiquer à toute l’industrie. »
L’outil numérique transformant les images en noir et blanc est à la disposition des modérateurs (des volontaires qui ont choisi de participer à cette étude). Les participants visionnent pendant deux semaines les images en couleur et répondent ensuite à un questionnaire concernant leur humeur. Les deux semaines suivantes, ils regardent des images en noir et blanc — en utilisant l’outil numérique à cette fin — et répondent encore à un questionnaire.
L’étude démontre que lorsque les modérateurs regardent des images en noir et blanc, leur humeur est meilleure. Du moins, cette semaine-là.
Il faut remarquer ce que l’entreprise ne teste pas : quelle est la limite du volume de contenu dérangeant auquel chaque modérateur peut être exposé durant une vie ? Devrait-on envisager des congés de maladie payés pour les modérateurs victimes du syndrome de stress post-traumatique ? Ou encore, pourquoi ne pas offrir du soutien à long terme aux anciens employés qui continuent de souffrir de problèmes de santé mentale bien après avoir quitté leurs fonctions ?
Peut-être ne pourrons-nous jamais déterminer avec une telle précision un niveau sécuritaire d’exposition à des contenus dérangeants. Mais il est remarquable qu’aucun des géants technologiques, qui recrutent des dizaines de milliers de personnes pour visionner ces contenus, n’essaie de déterminer un tel niveau sécuritaire.
Au lieu de cela, Google fait ce que les entreprises de technologie font souvent : elle cherche à résoudre le problème en appliquant des solutions technologiques.
L’entreprise met notamment au point des systèmes d’apprentissage automatique qui, espère-t-elle, pourront un jour traiter le gros du contenu dérangeant.
D’ici là, Google a suggéré que des études futures s’intéressent aux effets psychologiques que pourrait avoir un changement de la couleur du sang, du rouge vers le vert. D’autres « changements esthétiques » et plus de floutage d’images — les visages, par exemple — sont aussi envisagés. (Facebook propose déjà l’option des images en noir et blanc à tous ses modérateurs, en plus de l’option de visionnement en mode silencieux.)
Les entreprises savent depuis longtemps que les employés prennent des congés de maladie pour gérer des traumatismes liés à leur emploi. Il est frappant qu’une société disposant de vastes ressources comme Google commence à peine à chercher, presque en dilettante, des solutions technologiques mineures à des problèmes aussi graves que des diagnostics de syndrome de stress post-traumatique, des années après que les employés ont commencé à les signaler à leurs gestionnaires.
L’INDUSTRIE DE LA MODÉRATION DE CONTENU EST en croissance rapide depuis deux ans. Comme des gouvernements un peu partout exigent que les géants des réseaux sociaux régissent mieux leurs services, le besoin de modérateurs semble croître de manière exponentielle. Des dizaines de milliers de personnes travaillent actuellement dans ce secteur.
Or, nous ignorons encore comment les aspects les plus difficiles de ce travail — visionner des contenus dérangeants pour les retirer d’Internet — affectent ceux qui le font. Nous savons qu’un sous-groupe de personnes, celles qui travaillent à retirer des vidéos d’extrémisme violent de YouTube ou à des tâches similaires ailleurs dans le monde, vont souffrir de syndrome de stress post-traumatique ou de problèmes de santé mentale reliés à ce travail. Nous ne savons pas ce que pourrait être un niveau d’exposition sécuritaire. Ni même si un tel seuil existe.
Les dirigeants des sociétés concernées ont tendance à décrire le problème comme une question de recrutement. À leurs yeux, il existe des personnes qui sont résilientes face à de telles images de violences et de sévices, et d’autres qui ne le sont pas. Il suffirait donc d’embaucher celles qui sont plus résistantes.
Toutefois, lors de mes conversations avec plus d’une centaine de modérateurs, travaillant dans des sociétés de toutes les tailles, il m’a semblé clair que la sécurité des modérateurs n’est pas une question aussi simple. Certains employés présentent des symptômes précoces de stress post-traumatique dès leurs premières semaines de travail. D’autres ne les voient émerger qu’après des années.
Je ne peux pas le dire plus clairement que les chercheurs de Google : « Il y a une prise de conscience et une reconnaissance croissantes du fait qu’au-delà du simple désagrément, le visionnement à long terme ou intensif de tels contenus dérangeants peut avoir des conséquences considérables sur la santé des personnes engagées dans cette tâche. »
Chez Facebook et Google, les dirigeants continuent de dissuader les modérateurs de contenu de parler des conséquences de leur travail. On leur rappelle qu’ils peuvent être facilement remplacés et qu’ils ont signé des ententes de confidentialité. Ceux d’entre eux qui s’enfoncent dans l’anxiété et la dépression vont recevoir des soins très différents selon qu’ils travaillent pour des sous-traitants ou sont des employés permanents de l’un ou l’autre des géants technologiques.
Quelques rares chanceux, comme Daisy, auront droit à des mois de congé payé. D’autres, comme l’un de mes interviewés d’Austin, continueront à travailler jusqu’à ce qu’ils soient hospitalisés. Un fait demeure indiscutable : peu importe votre niveau salarial ou la qualité des avantages sociaux dont vous jouissez, ce travail de modération vous changera à jamais.
Depuis décembre 2019, Accenture ordonne d’ailleurs à ses employés modérant des contenus pour YouTube de signer une déclaration qui reconnaît que leur travail peut engendrer un syndrome de stress post-traumatique. Des experts en droit du travail y voient une manœuvre de l’entreprise pour se protéger contre d’éventuels recours légaux.
Récemment, un employé d’une grande société technologique m’a expliqué le concept juridique de « délit toxique ». Aux États-Unis, des lois permettent aux gens d’attaquer en justice des employeurs et des constructeurs immobiliers qui les ont exposés à des niveaux dangereux d’un produit chimique.
Si de telles lois peuvent être appliquées, c’est parce que la science nous a révélé comment certains produits chimiques affectent le corps humain. Nous savons que l’exposition à de la peinture à base de plomb, par exemple, peut causer des dommages au cerveau, particulièrement chez les enfants. Nous savons aussi que l’exposition à l’amiante peut causer le cancer du poumon. Nous avons établi des niveaux sécuritaires d’exposition et nous tentons de forcer les employeurs et les constructeurs à respecter ces niveaux.
Peut-être ne pourrons-nous jamais déterminer avec une telle précision un niveau sécuritaire d’exposition à des contenus dérangeants. Mais il est remarquable qu’aucun des géants technologiques, qui recrutent des dizaines de milliers de personnes pour visionner ces contenus, n’essaie de déterminer un tel niveau sécuritaire.
Si un tel changement d’approche survient, ce sera sans doute à la suite d’une combinaison de recours collectifs devant les tribunaux, d’actions collectives de travailleurs et de pressions populaires. Les employés de Google sont déjà des leaders en défense des droits de leurs collègues qui travaillent pour des sous-traitants, et j’espère que leurs efforts vont se poursuivre.
Deux ans après avoir quitté Google, Daisy doit encore composer avec les effets secondaires du travail qu’elle y faisait. Elle prend des antidépresseurs pour stabiliser son humeur et a encore occasionnellement des attaques de panique. Mais elle se considère comme chanceuse. Elle a eu droit à un congé médical payé pour s’occuper de sa santé. Et pour cela, elle est reconnaissante.
« Nous avons besoin de gens pour faire ce travail de nettoyage, dit Daisy. Mais nous devons aussi changer le système et la structure d’organisation de ce travail. Nous devons améliorer la façon dont nous soutenons ces personnes et les outils que nous leur donnons pour faire face aux difficultés. Si nous ne faisons rien, ces problèmes vont empirer. »
La version originale de cet article a été publiée par The Verge, le 16 décembre 2019.
Cet article a été publié dans le numéro d’avril 2020 de L’actualité.
Cet article nous démontre que ces géants se soucient peu des travailleurs, mais se soucient des gros dollars, que leur fait économiser leur insouciance de la santé des employés.