LONDRES — Les utilisateurs des réseaux sociaux dans l’Union européenne disposeront bientôt d’un nouveau forum pour contester les décisions des plateformes concernant la suppression de publications et de vidéos jugées contraires à leurs règles, ou celle de laisser en ligne d’autres publications qui pourraient les enfreindre.
Un « organisme de règlement des litiges extrajudiciaires » nommé le Centre d’Appels Europe a annoncé mardi avoir été certifié par les régulateurs irlandais pour agir en tant qu’arbitre dans les litiges de modération de contenu à travers les 27 pays de l’UE, en commençant par des cas impliquant Facebook, YouTube et TikTok.
Ce centre est similaire au Conseil de Surveillance de Meta, un organe quasi-indépendant créé en 2020 qui fonctionne comme une cour suprême pour des décisions délicates concernant des questions de modération de contenu sur Facebook, Instagram et Threads, soumises par des utilisateurs du monde entier.
Dans le cadre du règlement numérique de l’UE, connu sous le nom de Règlement sur les services numériques (DSA), les entreprises technologiques et les plateformes de médias sociaux sont tenues de collaborer avec des organismes de règlement des litiges et de se conformer à toutes les décisions qu’ils prennent. Les responsables de l’UE à Bruxelles souhaitaient offrir aux citoyens européens un moyen de contester les décisions prises par les grandes entreprises technologiques tout en cherchant à équilibrer le droit à la liberté d’expression avec l’objectif de réduire les risques en ligne.
Le centre examinera les appels d’utilisateurs ou de groupes situés dans l’UE concernant « des cas allant de la violence et l’incitation à la haine au harcèlement et à l’intimidation », a déclaré le PDG Thomas Hughes.
« Cela peut aller d’un cas concernant un chef d’État à un simple conflit de voisinage », a précisé Hughes.
Le Règlement sur les services numériques est un ensemble vaste de régulations qui oblige les entreprises technologiques et les réseaux sociaux opérant en Europe à assainir leurs plateformes sous peine de lourdes amendes.
Le Centre d’Appels, basé à Dublin, où de nombreuses entreprises de la Silicon Valley ont leur siège européen, commencera à entendre des cas d’utilisateurs avant la fin de l’année. Il traite initialement les utilisateurs de Facebook, YouTube et TikTok car il souhaitait débuter avec les plus grandes plateformes, avec des projets d’ajouter d’autres acteurs par la suite.
Contrairement au Conseil de Surveillance, qui peut sélectionner les cas les plus importants, le centre sera contraint de se prononcer sur chaque cas qu’il reçoit. De plus, les décisions ne seront pas rendues publiques, contrairement aux jugements du Conseil de Surveillance qui sont publiés en ligne.
Le Conseil de Surveillance émet à la fois des décisions contraignantes sur des cas individuels, comme un ruling de septembre concernant trois publications distinctes avec le slogan controversé palestinien « du fleuve à la mer », et se prononce également sur des questions de politique plus larges avec des recommandations non contraignantes, telles que des recommandations de juillet sur la mise à jour des politiques de Meta concernant les deepfakes non consensuels après avoir examiné un cas impliquant des images intimes truquées de deux femmes.
Les décisions du Centre d’Appels, en revanche, ne sont pas contraignantes et seront limitées à déterminer si un contenu tel qu’une publication, une photo ou une vidéo enfreint les règles de chaque plateforme.
Hughes a déclaré que le centre recrutera du personnel provenant de toute l’UE pour gérer des cas qui pourraient atteindre des dizaines de milliers par an. Le personnel aura une expertise dans des régions, des langues et des domaines politiques spécifiques.
Au-delà des décisions individuelles relatives aux cas, les données sur les litiges aideront les régulateurs et les chercheurs à identifier les « risques systémiques » pour les utilisateurs de médias sociaux.
Le Réel Conseil de Surveillance de Facebook, un groupe de leaders des droits civiques et d’experts en technologie qui a été critique envers Meta et son panel de surveillance, a accueilli avec prudence le nouveau centre.
« Nous ne savons pas grand-chose sur le centre d’appels et son fonctionnement, mais l’application de la modération dans le cadre du DSA a une promesse que d’autres approches n’ont pas », a déclaré le porte-parole Ben Wyskida. Bien que le DSA « ne soit pas parfait… il est de loin supérieur à tout ce qui existe aux États-Unis. »
Le Conseil de Surveillance de Meta finance le démarrage du Centre d’Appels à hauteur de 15 millions d’euros (16,5 millions de dollars), a indiqué Hughes, ancien directeur du Conseil. Il a ajouté que les deux organismes fonctionneraient séparément mais « viseront dans la même direction en matière de responsabilité et de transparence des plateformes, de droits des utilisateurs » et appliqueront un cadre de droits humains à la parole en ligne.
Le Centre d’Appels financera ses opérations en facturant aux entreprises technologiques 95 euros pour chaque cas traité, ainsi qu’une taxe de 5 euros aux utilisateurs qui soumettent des litiges. Cette taxe « nominale » vise à empêcher les abus du système et sera remboursée si un utilisateur gagne, a précisé Hughes.
Bien que les décisions ne soient pas contraignantes, les utilisateurs récupéreront leur argent si le centre statue en leur faveur, peu importe si la plateforme agit ou non.
Un délai de 90 jours est prévu pour les décisions, mais dans de nombreux cas, elles seront prises beaucoup plus rapidement, a-t-il précisé.
Article original rédigé par : Barbara Ortutay.
Notre Opinion
À l’heure où les géants des technologies numériques se retrouvent sous le feu des projecteurs quant à leur gestion des contenus, l’initiative du Centre d’Appels Europe pourrait marquer une avancée significative dans la régulation de la modération sur les réseaux sociaux. Bien que les préoccupations sur les contenus en ligne soient légitimes, la manière dont ils sont traités l’est tout autant. La mise en œuvre d’un organe référendaire au sein de l’UE semble prometteuse, car elle encourage un équilibre entre la protection des droits des utilisateurs et la responsabilité des plateformes. Néanmoins, j’estime qu’il sera essentiel de surveiller l’évolution de ces décisions, ainsi que leur impact sur la liberté d’expression et la dynamique du discours en ligne.
Source image(s) : abcnews.go.com