COLORADO SPRINGS, Colorado – La police métropolitaine de Las Vegas a révélé que Matthew Livelsberger, un habitant de Colorado Springs soupçonné d’avoir causé une explosion près de l’hôtel Trump International, a utilisé l’intelligence artificielle générative pour préparer son attaque.
“Nous avons également des preuves solides que le suspect a utilisé ChatGPT, une intelligence artificielle, pour planifier son acte,” a déclaré le shérif Kevin McMahill lors d’une conférence de presse mardi.
Les enquêteurs pensent que Livelsberger a posé plusieurs questions préoccupantes au chatbot, telles que “Quelle est la limite légale pour acheter du tannerite au Colorado ?” et “Un pistolet Desert Eagle de calibre 50 pourrait-il le déclencher ?”.
Les autorités estiment qu’il cherchait à déterminer la quantité d’explosifs nécessaire pour réaliser l’explosion qu’il projetait.
Selon le professeur Dr. Armin Moin, spécialiste de l’IA quantique et classique à l’UCCS, la responsabilité ne devrait pas incomber à ChatGPT, mais plutôt à l’utilisateur lui-même. “C’est un outil qui peut être utilisé de manière positive ou négative… On ne peut pas poursuivre une entreprise pour le couteau qu’elle a fabriqué, n’est-ce pas ? C’est à l’être humain d’en faire une utilisation responsable.”
Dr. Moin souligne que les informations obtenues par Livelsberger étaient déjà disponibles sur Internet, et que ChatGPT se contentait d’extraire des données provenant d’autres sites. “Pour maximiser son potentiel, des entreprises comme OpenAI forment ces modèles uniquement avec des données accessibles au public sur Internet.”
Cependant, lorsqu’il a tenté de poser des questions similaires à ChatGPT, il n’a pas toujours reçu de réponse.
“En tant que scientifique, je suis curieux. J’ai commencé à poser des questions que je pense être probablement controversées ou qui ne devraient pas recevoir de réponse, et d’après mon expérience, j’ai remarqué qu’ils avaient déjà mis en place certaines protections”, a déclaré Dr. Moin.
KRDO13 a obtenu une déclaration d’OpenAI, propriétaire de ChatGPT, qui indique :
“Nous sommes attristés par cet incident et engagés à veiller à ce que les outils d’IA soient utilisés de manière responsable. Nos modèles sont conçus pour refuser les instructions nuisibles et minimiser le contenu nocif. Dans ce cas, ChatGPT a répondu avec des informations déjà disponibles publiquement sur Internet et a fourni des mises en garde contre les activités nuisibles ou illégales. Nous collaborons avec les forces de l’ordre pour soutenir leur enquête.” – porte-parole d’OpenAI
Points à retenir
- L’utilisation croissante de l’intelligence artificielle dans des contextes inappropriés soulève des défis éthiques importants.
- Le rôle des utilisateurs est primordial dans la détermination de l’usage des outils technologiques.
- Les entreprises d’IA s’efforcent d’intégrer des mesures de sécurité pour limiter les abus, mais leur efficacité peut varier.
Cet incident pose une question essentielle sur l’interaction entre technologie et responsabilité individuelle. Comment pouvons-nous nous assurer que les outils puissants que nous développons ne soient pas détournés à des fins malveillantes ? Un débat enrichissant s’ouvre sur la législation et la responsabilité éthique dans le domaine de l’intelligence artificielle.
- Source image(s) : krdo.com
- Source : https://krdo.com/news/2025/01/07/chatgpt-used-by-colorado-springs-man-to-plan-las-vegas-cybertruck-explosion-authorities-say/
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.