Le strict minimum : ne créez pas RoboHitler !

RoboHitler

À la suite des récentes modifications des standards de “conduite haineuse” de Meta, anciennement Facebook, une enquête menée par NBC a révélé que les plateformes du géant des médias sociaux hébergent en réalité des chatbots alimentés par l’IA, imitant Hitler.

Au cours de l’année dernière, Meta a lancé un “AI Studio”, permettant aux utilisateurs d’Instagram, Facebook Messenger et WhatsApp de créer et d’interagir avec leurs propres chatbots IA. Selon les politiques de cet studio, ces bots sont censés respecter un ensemble de règles strictes : ils ne doivent pas imiter une personne vivante, et si un personnage réel est évoqué, il doit être décédé depuis plus de 100 ans. De plus, ils ne peuvent pas être basés sur des personnages fictifs protégés par des droits d’auteur, ni incarner des figures religieuses ou des leaders. Les figures telles que des terroristes ou des meurtriers de masse sont également à proscrire.

Meta prétend passer tous les bots en revue avant leur mise en ligne pour garantir leur conformité, considérant cela comme une protection contre la production de contenus jugés “inexactes, offensantes ou autrement problématiques”.

Cependant, selon l’enquête de NBC, de nombreux chatbots semblent échapper à ce contrôle, y compris ceux qui se font passer pour Adolf Hitler, reconnu comme l’un des meurtriers de masse les plus notoires de l’histoire, et qui enfreint clairement les politiques de l’AI Studio de Meta.

Cette découverte soulève des questions sur les pratiques de sécurité promises par le géant des réseaux sociaux autour de ses personnages chatbot publics. De plus, dans le contexte de son choix controversé de revoir à la baisse les standards acceptés concernant les discours haineux, héberger des chatbots inspirés d’Hitler n’arrange pas du tout l’image de l’entreprise.

Violations multiples

La révision menée par NBC a également mis en lumière d’autres chatbots enfreignant les politiques en vigueur, tels que des IA créées à l’image de célébrités comme Taylor Swift et Justin Bieber, ainsi que de nombreux bots inspirés de personnages fictifs protégés comme Harry Potter ou Elsa de la franchise “Frozen”. Il a aussi été signalé un nombre important de bots imitant des figures religieuses telles que Jésus-Christ, Mahomet et Dieu.

Dans une déclaration, un porte-parole de Meta a affirmé à NBC que les “IA en question qui enfreignent nos politiques de studio IA ont déjà été supprimées, et nous améliorons continuellement nos mesures de détection pour empêcher la création et la publication d’IA non conformes”.

Cependant, l’assurance que les bots ont été supprimés après leur découverte par les journalistes n’inspire pas vraiment confiance quant à l’attention portée par Meta à assurer la conformité de ses bots de l’AI Studio, surtout compte tenu de la facilité avec laquelle les utilisateurs ont pu contourner ses défenses existantes.

Points à retenir

  • Les chatbots créés sur Meta doivent respecter une série de règles strictes, mais des violations sont observées.
  • Meta assure qu’elle supprime rapidement les bots non conformes, mais la vigilance des utilisateurs reste un enjeu crucial.
  • La question de la responsabilité des plateformes sociales dans la gestion des contenus dérangeants est plus pertinente que jamais.

La situation soulève des interrogations sur la manière dont les plateformes sociales gèrent l’intelligence artificielle et les discours haineux. Il serait intéressant de débattre de la responsabilité des entreprises technologiques face à ce nouvel enjeu. La mise en place d’une régulation plus stricte pourrait-elle être une solution pour éviter la prolifération de contenus nuisibles ?



  • Source image(s) : futurism.com
  • Source : https://futurism.com/the-byte/facebook-hosting-ai-hitler


By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *