Action contre Facebook: le choc d'affichage est trop important pour un ancien employé

Les "modérateurs de contenu" sont responsables de la vérification des messages sur Facebook et de la suppression du contenu perturbant ou illégal. Selon une plainte récente déposée par une femme qui a effectué ce travail pendant neuf mois, ces employées ne sont pas suffisamment protégées contre les conséquences psychologiques potentielles de leur travail. Cela rapporte, entre autres, le "New York Post".

"Chaque jour, des utilisateurs de Facebook publient des millions de vidéos, de photos et de flux en direct d'abus sexuels sur enfants, de viols, de tortures, de relations sexuelles avec des animaux, de décapitations, de suicides et de meurtres", selon la plainte d'un ancien employé. Mais la société n’a pas fait assez pour protéger les modérateurs d’un "traumatisme psychologique".



Comment paralysé

La femme souffre maintenant d'un "trouble de stress post-traumatique débilitant", qui pourrait être provoqué en touchant une souris ou en pénétrant seul dans un bâtiment froid. L'ex-employée et ses collègues ont dû inspecter plus de 10 millions de messages par semaine avec un contenu potentiellement dangereux.

Dans une déclaration par courrier électronique adressée au site Web de la technologie "Mashable", un porte-parole de Facebook a déclaré que les allégations seraient examinées. L'entreprise est consciente que "ce travail peut souvent être difficile". Alors, prenez "le soutien de nos modérateurs de contenu incroyablement sérieux". En conséquence, cela inclut également une formation appropriée, les services de l'employeur et la fourniture d'une aide psychologique à chaque employé.



Attack on the Duergar Warcamp - Critical Role RPG Show: Episode 4 (Avril 2024).



Facebook, poursuite, New York Post, poursuite contre Facebook, poursuite, tribunal, Facebook