TikTok a entrepris des licenciements massifs à l’échelle mondiale, touchant en particulier son équipe de modération du contenu. D’après Reuters, la plateforme se tourne désormais vers la modération basée sur l’intelligence artificielle.
Le travail de modérateur de contenu sur les réseaux sociaux n’est pas réservé aux âmes sensibles. En 2021, un ancien modérateur de Facebook a témoigné auprès de NBC News des horreurs auxquelles ils sont confrontés quotidiennement. Cela ressemble à une torture psychologique continue, car leur mission consiste à filtrer certains des contenus les plus traumatisants postés par les utilisateurs.
Vidéo par VICE
La modération constitue également un pilier essentiel pour maintenir l’écosystème d’une plateforme de réseaux sociaux. Pour illustrer comment une mauvaise modération peut transformer un réseau social en un véritable cauchemar, il suffit de regarder l’exemple de Twitter/X sous la direction d’Elon Musk, qui s’est mué en un véritable carnaval de l’horreur. Toutefois, des interrogations subsistent quant à la capacité d’un modérateur AI à exercer un travail de nettoyage plus efficace qu’un être humain, malgré le coût psychologique que cela représente.
Toute cette situation s’inscrit dans une tendance plus large de l’industrie technologique cherchant à intégrer l’IA pour améliorer l’efficacité opérationnelle—ce qui pourrait n’être qu’un prétexte pour réduire les coûts en licenciant des employés, dont beaucoup étaient déjà externalisés vers des pays comme la Malaisie. Il y a à peine deux ans, le Bureau de Journalisme d’Investigations a révélé que les modérateurs de TikTok, à travers le monde, étaient payés environ l’équivalent de 10 dollars par jour pour visionner des contenus tels que “meurtres, suicides, pédophilie, pornographie, accidents ou cannibalisme” sans bénéficier d’un soutien en santé mentale pour les aider à gérer ce flot de misère.
Il se trouve maintenant que les employés de TikTok en Malaisie subiront de lourdes pertes. Environ 500 d’entre eux ont été informés de leur licenciement la semaine dernière.
Notre point de vue
L’évolution vers une modération via l’intelligence artificielle soulève d’importantes questions éthiques et professionnelles. Bien qu’il soit indéniable que l’IA peut offrir des solutions d’efficacité, la nature humaine de la modération ne peut être complètement remplacée sans risques. Un équilibre doit sans doute être trouvé, où la technologie aide sans déshumaniser le processus ni ignorer les répercussions psychologiques sur ceux qui travaillent dans ce domaine difficile. Nous devons rester vigilants sur la manière dont les grandes entreprises choisissent d’utiliser ces technologies, car chaque décision affecte non seulement l’industrie, mais également la communauté dans son ensemble.
- Source image(s) : www.vice.com
- Source : https://www.vice.com/en/article/tiktok-content-moderation-layoffs-ai/