Maung Sawyeddollah, un activiste des droits humains rohingya et survivant d’atrocités, a déposé une plainte auprès de la Commission des valeurs mobilières des États-Unis (SEC), demandant à l’organisme d’enquêter sur Meta pour des violations présumées des lois sur les valeurs mobilières. Ces violations seraient liées aux mensonges de l’entreprise envers ses actionnaires concernant sa contribution significative à ce que le gouvernement américain a qualifié de génocide perpétré contre les Rohingyas en Birmanie en 2017.

Cette initiative a été soutenue conjointement par Amnesty International, l’Open Society Justice Initiative et Victim Advocates International.

« La soumission apporte des informations sur le rôle supposé de Meta dans les atrocités commises contre les Rohingyas et souligne des mensonges faits à la SEC et aux investisseurs publics. Nous espérons que la SEC examinera cette soumission et enquêtera sur Meta pour d’éventuelles violations des lois fédérales sur les valeurs mobilières. 

Mandi Mudarikwa, Responsable de la lutte stratégique chez Amnesty International.

La plainte adressée à la SEC, un organisme indépendant des États-Unis chargé de garantir un traitement équitable et honnête des actionnaires, détaille comment Meta a été à maintes reprises avertie par des activistes et des chercheurs du risque que Facebook soit exploité pour inciter à la violence contre les Rohingyas avant 2017. La plainte soutient que, malgré ces avertissements, Meta a continué à omettre des informations clés sur ce risque de violence dans ses déclarations faites aux investisseurs publics.

Un rapport de 2022 d’Amnesty International a révélé que Meta avait contribué aux atrocités en Birmanie contre les Rohingyas par l’utilisation d’algorithmes sur Facebook qui amplifiaient le contenu nuisible et par une modération insuffisante de ce type de contenu, ce qui enfreignait ses propres normes communautaires — les règles définissant le contenu autorisé sur la plateforme.

Le rapport a également montré que le modèle économique de Meta reposait sur un profilage invasif et une publicité ciblée, favorisant la diffusion de contenus nuisibles, y compris l’incitation à la violence. Les systèmes algorithmiques de Meta sont conçus pour maximiser l’engagement des utilisateurs afin d’accroître ses revenus publicitaires. Par conséquent, ces systèmes ont souvent pour effet de privilégier un contenu inflammatoire, diviseur et nuisible.

« J’ai vu beaucoup de choses horribles sur Facebook, et je pensais juste que les personnes qui publiaient étaient mauvaises. Je ne réalisais pas à l’époque que Facebook était en partie responsable. Un jour, j’ai vu un post qui m’a vraiment dégoûté. J’ai essayé de le signaler à Facebook en disant que c’était un discours de haine, mais j’ai reçu une réponse disant que… cela ne violait pas les normes communautaires, » a déclaré Maung Sawyeddollah, évoquant sa frustration face à ses tentatives infructueuses d’alerter Meta sur la prolifération de contenus nuisibles sur Facebook.

Malgré le caractère clairement erroné de ces contenus au regard des normes communautaires de Facebook, lesquelles ont récemment changé dans le cadre d’un réajustement politique, Meta n’a pas suffisamment appliqué ces normes en Birmanie ni effectivement supprimé le contenu anti-rohingya dans les mois et années précédant les atrocités de 2017 dans le nord de l’État de Rakhine. Le faible nombre de modérateurs de contenu possédant les compétences linguistiques nécessaires, conséquence des choix budgétaires et de personnel de la société, a également participé aux insuffisances de Meta. Cela reflète un échec plus large de la société à investir de manière adéquate dans la modération de contenu dans de nombreux pays d’Asie, d’Afrique et d’Amérique latine, malgré ses affirmations publiques.

« En Birmanie, où Facebook était la principale plateforme de médias sociaux et source d’information, le déploiement imprudent des algorithmes nuisibles de Meta, avec des protections minimes, a favorisé des campagnes anti-rohingyas en ligne qui ont contribué à des violences hors ligne, » a déclaré Eva Buzo, Directrice exécutive de Victim Advocates International.

La plainte auprès de la SEC met en lumière le refus de Meta de tenir compte des multiples avertissements de la société civile entre 2013 et 2017 concernant le rôle potentiel de Facebook dans l’alimentation de la violence. Pendant cette période, la société civile a maintes fois averti les employés de Meta que la plateforme contribuait à un « génocide » imminent, semblable au rôle joué par les radios lors du génocide rwandais.

« Bien que les investisseurs aient demandé à Meta d’examiner les implications en matière de droits humains de ses activités, Meta a bien souvent manqué de transparence à leur égard, malgré les avertissements répétés concernant l’escalade de la situation en Birmanie et le rôle de Facebook dans celle-ci. 

James Goldston, Directeur exécutif de l’Open Society Justice Initiative.

Malgré ces avertissements, entre 2015 et 2017, Meta a déclaré aux investisseurs que les algorithmes de Facebook n’entraînaient pas de polarisation, tout en ayant été alertée du rôle de Facebook dans la prolifération de contenu anti-rohingya en Birmanie. Parallèlement, Meta n’a pas entièrement divulgué dans ses rapports financiers aux actionnaires les risques liés aux opérations de la société en Birmanie. Au lieu de cela, en 2015 et 2016, Meta s’est opposée à des propositions d’actionnaires visant à réaliser une évaluation de l’impact sur les droits humains et à créer un comité interne pour superviser les politiques et pratiques de l’entreprise concernant les questions publiques internationales, y compris les droits humains.

La pression publique en 2018 a contraint Meta à reconnaître partiellement et tardivement le rôle de Facebook dans les atrocités contre les Rohingyas. Cependant, entre novembre 2020 et novembre 2022, Meta a de nouveau échoué à freiner adéquatement la diffusion de contenus prônant la haine et la violence, cette fois contre les Tigréens en Éthiopie, contribuant finalement à des violences hors ligne sévères. Cela, malgré les affirmations publiques contraires de l’entreprise. Manifestement, Meta n’a ni tiré les leçons de son expérience ni pris des mesures significatives pour limiter son rôle dans l’alimentation des violences ethniques à travers le monde.

Les récentes modifications politiques de Meta aux États-Unis, abolissant toute vérification indépendante des faits, qui pourraient bientôt être étendues au niveau international, risquent d’aggraver encore davantage les contributions de Meta aux atteintes aux droits humains et à la violence hors ligne, équivalentes aux crimes commis contre les Rohingyas.

Points à retenir

  • Maung Sawyeddollah met en relief un alerte sur le rôle de Meta dans les violences contre les Rohingyas.
  • Plusieurs organisations soutiennent la plainte pour une enquête sur les pratiques de l’entreprise envers ses actionnaires.
  • Dans le passé, des avertissements ont été émis concernant la propagande de haine sur Facebook sans que des mesures adéquates ne soient prises.
  • Le rapport d’Amnesty International souligne l’impact des algorithmes de Meta dans la diffusion de contenu nuisible.
  • Des changements politiques récents pourraient accroître les nuisances sociales induites par les plateformes en ligne.

En conclusion, cette affaire soulève des interrogations sur la responsabilité des grandes entreprises technologiques en matière de droits humains. Alors que les plateformes comme Facebook continuent de façonner le discours public, il est crucial de se demander jusqu’où ces entreprises doivent aller pour réguler le contenu et prévenir la violence, et quel rôle les utilisateurs et les gouvernements doivent jouer dans cette dynamique complexe.




Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *