Meta a pris une décision qui va bien au-delà de la simple vérification des faits en préparation d’une éventuelle seconde administration Trump. Le géant des réseaux sociaux a assoupli ses règles concernant le discours de haine et les abus, notamment sur des sujets liés à l’orientation sexuelle, à l’identité de genre et au statut d’immigration, s’inspirant des pratiques de X, la plateforme d’Elon Musk.
Cette évolution inquiète les défenseurs des groupes vulnérables, qui soulignent que le choix de Meta de réduire la modération du contenu pourrait avoir des répercussions graves dans la réalité. Le PDG de Meta, Mark Zuckerberg, a déclaré mardi que la société allait “lever les restrictions sur des sujets comme l’immigration et le genre, qui ne correspondent plus au discours mainstream”, en citant les “élections récentes” comme un facteur déclencheur.
Parmi les modifications apportées aux règles, appelées standards communautaires, qui doivent être respectées par les utilisateurs, on note :
“Nous autorisons les allégations de maladie mentale ou d’anormalité basées sur le genre ou l’orientation sexuelle, compte tenu du discours politique et religieux entourant le transgenrisme et l’homosexualité, ainsi que l’usage courant de termes comme ‘bizarre.’” Autrement dit, il est désormais permis de traiter les personnes homosexuelles de malades mentaux sur Facebook, Threads et Instagram. D’autres insultes et ce que Meta désigne comme des “stéréotypes nuisibles historiquement liés à l’intimidation” — tels que le Blackface et le déni de l’Holocauste — demeurent cependant interdits.
De plus, l’entreprise basée à Menlo Park, en Californie, a supprimé une phrase de sa “rationale politique” expliquant pourquoi elle interdit certaines conduites haineuses. La phrase supprimée mentionnait que le discours de haine “crée un climat d’intimidation et d’exclusion, et peut dans certains cas inciter à la violence hors ligne.”
“Ce changement de politique est une tactique pour séduire la nouvelle administration tout en réduisant les coûts liés à la modération du contenu,” estime Ben Leiner, professeur à l’Université de Virginie, spécialisé dans les tendances politiques et technologiques. “Cette décision aura des conséquences réelles, non seulement aux États-Unis, où le discours de haine et la désinformation sur les plateformes de médias sociaux sont en hausse, mais aussi à l’étranger, où la désinformation sur Facebook a exacerbé les conflits ethniques, notamment au Myanmar.”
En effet, Meta avait reconnu en 2018 n’avoir pas suffisamment agi pour empêcher l’utilisation de sa plateforme pour “inciter à la violence hors ligne” au Myanmar, alimentant la haine et la violence communautaire à l’encontre de la minorité musulmane Rohingya.
Arturo Béjar, un ancien directeur technique chez Meta, reconnu pour son expertise dans la lutte contre le harcèlement en ligne, s’inquiète davantage des modifications apportées aux politiques de contenu nuisible que de l’annonce de vérification des faits de la société. Cela s’explique par le fait que, au lieu d’appliquer proactivement des règles contre l’automutilation, le harcèlement et l’intimidation, Meta comptera désormais sur les rapports des utilisateurs avant d’agir. La société a indiqué qu’elle se concentrerait sur “la lutte contre les violations illégales et graves, comme le terrorisme, l’exploitation sexuelle des enfants, les drogues, la fraude et les escroqueries.”
Béjar a souligné que “Meta sait que, lorsque le rapport est soumis et examiné, le contenu aura déjà fait la majorité de ses dégâts.”
“Je redoute de ce que ces changements pourraient signifier pour nos jeunes. Meta abdique sa responsabilité en matière de sécurité, et nous ne pourrons pas mesurer l’impact de ces changements car la société refuse d’être transparente concernant les dommages que subissent les adolescents, et elle cherche à diluer ou à stopper des législations qui pourraient aider,” a-t-il ajouté.
Points à retenir
- Meta modifie ses règles de modération concernant le discours de haine, notamment sur des thèmes liés à l’identité de genre et à l’immigration.
- Les défenseurs des droits s’inquiètent des conséquences potentielles de cette décision sur les groupes vulnérables.
- La société prévoit de se concentrer principalement sur les violations les plus graves, délaissant les plaintes utilisateurs pour des problèmes tels que l’automutilation et le harcèlement.
L’évolution des politiques de Meta soulève des questions importantes sur la responsabilité des plateformes sociales en matière de sécurité et de protection des utilisateurs. À une époque où le discours de haine est en hausse, quelles pourraient être les implications de la réduction de la modération du contenu sur la santé mentale et la sécurité des utilisateurs, en particulier des jeunes? Ces réflexions méritent d’être approfondies dans le débat public.
- Source image(s) : www.syracuse.com
- Source : https://www.syracuse.com/us-news/2025/01/facebook-rolls-back-hate-speech-rules-cites-recent-elections-as-a-catalyst.html
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.