Un soldat a explosé un Tesla Cybertruck devant un hôtel Trump, utilisant des services d’intelligence artificielle, y compris ChatGPT, pour planifier son attaque, selon la police de Las Vegas, qui a partagé ces informations mardi.

Les enquêteurs poursuivent l’examen de l’ordinateur portable, du téléphone portable et de la smartwatch de Matthew Livelsberger, qui s’est tiré une balle juste avant l’explosion du véhicule.

Une analyse des recherches effectuées par Livelsberger via ChatGPT a révélé qu’il cherchait des informations sur des cibles explosives, la vitesse des projectiles de certaines munitions et la légalité des feux d’artifice en Arizona, ont indiqué les autorités.

Lancé par OpenAI en 2022, ChatGPT a poussé de nombreuses entreprises à explorer des moyens d’innover autour de cette technologie. L’intelligence artificielle est utilisée par les forces de l’ordre pour appréhender et identifier des criminels, alors que des malfaiteurs s’en servent pour escroquer des victimes ou apprendre à concevoir des objets illicites comme des bombes.

En règle générale, des outils comme ChatGPT refusent d’exaucer les demandes des utilisateurs cherchant à construire une bombe. Cependant, un rapport du Département de la Sécurité intérieure datant d’octobre 2024 a noté que certains utilisateurs ont réussi à contourner les restrictions éthiques de ces modèles d’IA. On ne sait pas si Livelsberger a tenté de le faire.

L’auteur de l’attentat était un ancien Béret vert ayant été déployé deux fois en Afghanistan et en congé autorisé au moment de sa mort. Il a laissé des notes indiquant que l’explosion était une mise en scène destinée à être un “appel à la prise de conscience” des problèmes de la nation. Il a également noté qu’il devait “purifier” son esprit “des frères perdus et se libérer du fardeau des vies qu’il avait prises.”

Bien que l’explosion n’ait fait aucune victime parmi les passants, sept personnes ont subi des blessures mineures, tandis que les dommages matériels à l’hôtel Trump International sont restés limités.

L’explosion s’est produite quelques heures après l’attaque terroriste sur Bourbon Street à La Nouvelle-Orléans, suscitant des craintes de liens entre les deux événements. Toutefois, les autorités ont affirmé qu’il n’y avait pas de lien avéré entre les deux attaques.

Les enquêteurs tentent de déterminer si Livelsberger cherchait à faire passer un message politique, étant donné que l’incident s’est produit devant un hôtel Trump. Ses notes indiquaient qu’il soutenait tant le président élu que l’homme d’affaires Elon Musk, tout en exprimant des préoccupations sur l’état de santé de la nation, qu’il considérait comme “terminalement malade et en voie d’effondrement.”

Points à retenir

  • Livelsberger avait précédemment servi en tant que Béret vert, témoignant de son parcours militaire.
  • Les recherches effectuées en ligne révèlent l’utilisation potentielle d’IA dans des contextes criminels.
  • Les conséquences de cette explosion soulèvent des questions sur la sécurité publique et les moyens de prévenir de tels actes.

Cette affaire amène à réfléchir sur l’impact de l’intelligence artificielle dans divers domaines, notamment la sécurité et la criminalité. Les technologies innovantes peuvent à la fois être un outil pour les forces de l’ordre et être détournées à des fins malveillantes. Quel équilibre peut être trouvé pour tirer parti des avantages des nouvelles technologies tout en minimisant les risques potentiels?



  • Source image(s) : www.washingtonexaminer.com
  • Source : https://www.washingtonexaminer.com/news/crime/3279694/cybertruck-bomber-chatgpt-other-ai-help-plan-attack-police/


By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *