Les récentes attaques à Las Vegas et à La Nouvelle-Orléans illustrent comment des outils d’intelligence artificielle sont en train d’être exploités par des terroristes.

Ces attaques – l’une impliquant les capacités linguistiques et de raisonnement de ChatGPT, l’autre exploitant la technologie des lunettes intelligentes de Meta – soulèvent des questions quant aux moyens de renforcer les mesures de protection tout en préservant les applications bénéfiques de l’IA.

Le rôle de ChatGPT dans l’explosion du Cybertruck

Les autorités indiquent que le sergent-chef des forces spéciales de l’armée américaine, Matthew Livelsberger – un Green Beret décoré ayant montré des signes de PTSD – a méthodiquement utilisé ChatGPT pour rechercher des éléments clés de son attaque contre un Cybertruck Tesla près de l’Hôtel International Trump à Las Vegas, le 1er janvier.

Selon le shérif de Las Vegas, Kevin McMahill, l’interaction de Livelsberger avec la plateforme IA allait bien au-delà de simples questions. Le soldat de 37 ans a utilisé ChatGPT pour calculer des quantités explosives précises, pour étudier des voies d’approvisionnement en feux d’artifice, et pour explorer des méthodes d’achat de téléphones tout en minimisant leurs traces numériques.

“Nous savions que l’IA allait changer la donne à un moment ou à un autre dans nos vies”, a déclaré McMahill. “C’est le premier incident dont j’ai connaissance sur le sol américain où ChatGPT a été utilisé pour aider un individu à construire un dispositif particulier.”

L’incident s’est terminé avec Livelsberger renversant du carburant de course sur le Cybertruck loué avant de mettre fin à ses jours, les enquêteurs suggérant que l’éclair de son arme aurait pu déclencher l’explosion. Sept personnes ont été blessées, bien que la structure de l’hôtel soit restée en grande partie intacte et que l’incident n’ait pas fait d’autres victimes que le propre auteur.

Les lunettes AI de Meta liées à l’incident de La Nouvelle-Orléans

Le même jour que le premier incident, Shamsud-Din Jabbar, un vétéran de l’armée américaine de 42 ans, a conduit un camion loué dans une foule lors des célébrations du Nouvel An.

Avant l’incident, Jabbar avait utilisé les lunettes intelligentes Ray-Ban de Meta, alimentées par l’IA de Meta, pour effectuer des reconnaissances détaillées de sa zone cible.

Les enquêtes du FBI ont révélé que Jabbar avait effectué deux visites dans le Quartier Français de La Nouvelle-Orléans – les 30 octobre et 10 novembre – au cours desquelles il a capturé une multitude d’images de Bourbon Street. Les lunettes lui permettaient d’enregistrer des vidéos et des photos sans les mains tout en circulant dans la zone. L’agent spécial du FBI, Lyonel Myrthil, a détaillé comment Jabbar a méthodiquement enregistré la disposition des rues, balayant à plusieurs reprises de gauche à droite pour obtenir des points de vue complets.

L’attaque a coûté la vie à 14 personnes et blessé 35 autres, y compris deux policiers, lorsque Jabbar a conduit son camion dans la foule célébrant le Nouvel An à 3 heures du matin. Bien qu’il ait porté les lunettes Meta durant l’attaque, il ne les a pas activées pour enregistrer ou diffuser en direct.

Les vidéos récupérées montraient Jabbar testant les capacités des lunettes, examinant son reflet et s’assurant de l’angle d’enregistrement optimal. L’expert en contre-terrorisme Sam Hunter a souligné l’avantage tactique que cette technologie offrait.

“Vous avez une réelle perception de la ligne de vue et des choses dont vous voudriez vous préoccuper si vous essayez de planifier une attaque”, a déclaré Hunter dans une déclaration partagée avec NBC. “Je ne serais pas surpris de voir des versions de ces lunettes ou des personnes les utilisant pour planifier des attaques à l’avenir, d’autant plus qu’elles sont très discrètes pour capturer ces images”,

Comment les entreprises d’IA et les régulateurs tentent de bloquer les abus

Les entreprises technologiques et les régulateurs s’efforcent de renforcer les protections tout en préservant les applications bénéfiques de l’IA.

OpenAI a souligné que ChatGPT intègre des protections spécifiques contre les instructions nuisibles et fournit des avertissements explicites concernant les activités illégales. La société a déclaré avoir pleinement coopéré avec les enquêtes des forces de l’ordre, tout en travaillant à améliorer ses protocoles de sécurité.

“L’utilisation dans le monde réel nous a également amenés à développer des politiques de plus en plus nuancées contre les comportements qui présentent un risque réel pour les personnes, tout en permettant les nombreuses utilisations bénéfiques de notre technologie”, a déclaré OpenAI dans un article de blog officiel.

Cela dit, comme l’a rapporté Decrypt, des techniques simples de contournement ont prouvé leur efficacité contre ces modèles : des méthodes basiques comme l’utilisation de leetspeak ou le jeu de rôles continu peuvent suffire à obtenir des contenus illégaux et à contourner ces restrictions.

La société n’a pas publié de déclaration concernant l’utilisation de ses outils par le sergent Matthew Livelsberger pour mener ses attaques terroristes.

Meta, sous le feu des critiques concernant le potentiel d’abus de ses lunettes intelligentes depuis leur sortie, a reconnu la nécessité d’équilibrer innovation et préoccupations de sécurité. La lumière d’indication d’enregistrement des lunettes, bien que présente, a été critiquée comme étant trop discrète.

Interrogée sur les attaques terroristes, une porte-parole de Meta a déclaré à NBC que la société est activement “en contact avec les forces de l’ordre à ce sujet”.

Article original rédigé par : Andrew Hayward

Points à retenir

  • Les technologies d’intelligence artificielle, telles que ChatGPT et les lunettes intelligentes de Meta, sont de plus en plus utilisées de manière détournée par des individus mal intentionnés.
  • Les autorités tentent de comprendre comment ces outils numériques peuvent être régulés efficacement pour prévenir leur exploitation à des fins criminelles.
  • Les innovations technologiques doivent être accompagnées de mesures de sécurité robustes pour prévenir les abus potentiels.

Au-delà des avancées technologiques, il est essentiel de réfléchir à la responsabilité des concepteurs et des utilisateurs d’IA. Comment trouver un juste équilibre entre innovation et sécurité publique ? Cette question mérite une attention soutenue dans le cadre des débats actuels sur l’éthique de l’IA.



  • Source image(s) : decrypt.co
  • Source : https://decrypt.co/300074/how-criminals-used-chatgpt-meta-ai-us-terror-attacks


By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *