Les experts sont partagés sur la question de savoir si le recours à ChatGPT dans le cadre des projets d’explosion d’un Tesla Cybertruck devant l’hôtel Trump International le 1er janvier devrait susciter des inquiétudes quant à l’utilisation sécurisée de l’intelligence artificielle. Toutefois, beaucoup s’accordent à dire que cet incident souligne le décalage entre les politiques de protection de l’IA et l’avancement rapide de la technologie.
Le sergent-maître de l’armée américaine, Matthew Livelsberger, a interrogé ChatGPT sur la manière d’acquérir et d’utiliser des matériaux explosifs la veille où il a loué un Cybertruck à Denver avant de se rendre à Las Vegas, où il s’est tragiquement infligé une blessure mortelle juste avant l’explosion de son véhicule, selon les autorités. L’explosion a fait sept blessés.
Les questions posées par Livelsberger à l’IA incluaient des demandes telles que « Quelle est la limite légale pour acheter du Tannerite au Colorado ? » et « Quel pistolet pourrait le déclencher ? », selon le département de police métropolitain. Le Tannerite est une marque de cibles réactives pour fusils qui explosent lorsqu’elles sont tirées.
Lorsque des journalistes du Review-Journal ont posé les mêmes questions que Livelsberger à ChatGPT, le logiciel a fourni des réponses détaillées à 21 des 22 requêtes. La seule question à laquelle ChatGPT n’a pas répondu, en raison d’une violation de ses politiques d’utilisation, concernait les munitions nécessaires pour assurer l’activation des matériaux explosifs.
L’explosion du Tesla Cybertruck constituait un délit passible de poursuite, a souligné Wendell Wallach, bioéthicien et auteur s’intéressant à l’éthique et à la gouvernance des technologies émergentes. Wallach n’a pas été surpris par l’utilisation de ChatGPT par Livelsberger et a déclaré qu’il ne s’agissait que d’une question de temps avant que l’IA ne soit sollicitée de cette façon, mais il a exprimé ses préoccupations concernant un manque de responsabilité.
“Un crime se produit avec des complices, mais ces complices ne sont pas nécessairement humains, ou ce sont des humains protégés de toute responsabilité parce que tout cela passe par un système informatique,” a-t-il déclaré.
Les experts ont expliqué que ChatGPT ne peut pas savoir qu’on lui pose des questions dangereuses ; il se contente de lire le langage et de retourner la réponse statistiquement la plus probable. Tous les garde-fous permettant de restreindre ce que le chatbot peut ou ne peut pas dire doivent être établis par ses développeurs.
“Les entreprises se disent que les bénéfices l’emporteront largement sur les inconvénients,” a commenté Wallach au sujet du développement de l’IA générative. “Mais ce n’est pas si clair.”
‘Informations déjà disponibles publiquement sur Internet’
Dans une déclaration partagée avec le Review-Journal, OpenAI, la société derrière ChatGPT, a exprimé sa tristesse face à cet incident et son engagement à voir les outils d’IA utilisés de manière responsable. “Nos modèles sont conçus pour refuser les instructions nuisibles et minimiser le contenu dangereux.”
“Dans ce cas, ChatGPT a répondu avec des informations déjà disponibles sur Internet,” a précisé le porte-parole d’OpenAI.
Cela a été un point crucial pour Andrew Maynard, professeur à l’Université d’État de l’Arizona, dont les travaux portent sur la transition vers des technologies avancées. “D’après ce que je vois, au-delà de l’utilisation de l’outil, il n’y a rien là qu’il n’aurait pas pu trouver ailleurs,” a-t-il déclaré.
Bien que Maynard reconnaisse qu’il existe des dangers potentiels avec des plateformes comme ChatGPT, il estime que les interactions de Livelsberger avec le chatbot ne l’ont pas inquiété. “Il n’y a pas de preuve qu’il y ait quelque chose de fondamentalement problématique avec ChatGPT,” a-t-il ajouté. Si le chatbot avait fourni des informations difficilement accessibles sur la fabrication d’une arme biologique, là, Maynard aurait été alarmé.
La question de l’accès facile à des informations potentiellement nuisibles dépasse l’IA générative, selon David Gunkel, professeur à l’Université Northern Illinois et philosophe des technologies. “Il y a trois ou quatre décennies, on aurait pu poser la même question sur la bibliothèque publique,” a-t-il indiqué.
La différence entre ChatGPT et un moteur de recherche réside dans la rapidité et l’interface utilisateur du chatbot, a précisé Gunkel. Si Livelsberger avait utilisé un moteur de recherche pour poser les mêmes questions, il aurait dû parcourir une liste de résultats et lire des documents pour trouver les informations spécifiques qu’il recherchait.
Lorsque le Review-Journal a posé à ChatGPT les mêmes 22 questions que Livelsberger, le chatbot a mis moins de huit minutes pour y répondre directement.
‘Les politiques évolueront avec le temps’
Emma Pierson, professeur d’informatique à l’Université de Californie à Berkeley et affiliée au Center for Human-Compatible AI, a précisé que le type de contenu que ChatGPT a fourni à Livelsberger, y compris des listes d’armes pouvant enflammer des matériaux explosifs, semblait “tout simplement être le genre de choses que l’on souhaite que le modèle rejette.”
Si OpenAI ne veut pas que ses modèles fournissent des informations dangereuses, et que le logiciel l’a fait quand même, cela constitue “un problème en soi,” a ajouté Pierson, car cela suggère que les contrôles mis en place par l’entreprise ne sont pas suffisants.
Les politiques d’utilisation de ChatGPT d’OpenAI, mises à jour pour la dernière fois le 10 janvier 2024, stipulent que les modèles doivent “refuser les instructions nuisibles et réduire leur tendance à produire du contenu nuisible.”
“Nous croyons que l’apprentissage par l’utilisation réelle est un composant critique de la création et de la diffusion de systèmes d’IA de plus en plus sûrs. Nous ne pouvons pas prédire tous les usages bénéfiques ou abusifs de notre technologie, donc nous surveillons proactivement les nouvelles tendances d’abus. Nos politiques évolueront en fonction de ce que nous apprenons avec le temps,” indiquent les politiques, disponibles sur le site d’OpenAI.
OpenAI n’a pas répondu aux questions concernant une éventuelle modification de ces politiques à la suite de l’explosion du Cybertruck.
Il est contre les politiques d’utilisation d’OpenAI de promouvoir ou de participer à une activité illégale ou d’utiliser ses services pour nuire à soi-même ou aux autres, y compris à travers le développement ou l’utilisation d’armes.
Gunkel a exprimé son sentiment que ChatGPT d’OpenAI a été lancé sur le marché avant d’avoir subi des tests internes approfondis. “Une explosion de ce genre est frappante et dramatique,” a-t-il déclaré, “mais il y a des éléments plus subtils qui corroborent sa conclusion — notamment des biais dans l’algorithme ou des hallucinations, qui sont des réponses qui semblent correctes, mais qui ne le sont pas.”
“On parle souvent de mettre des freins à l’IA,” a-t-il ajouté. “Ces idées semblent bonnes, mais elles ne fonctionnent généralement pas dans la pratique.”
De nombreux experts s’accordent à dire que la meilleure démarche consiste à anticiper les défis posés par l’IA générative et à s’assurer que des lois et des politiques sont mises en place pour prévenir d’éventuels dommages.
Un moment d’apprentissage pour les forces de l’ordre?
Pour Corynne McSherry, directrice juridique de l’Electronic Frontier Foundation, les inquiétudes concernant l’utilisation de ChatGPT par Livelsberger sont exagérées. “L’anxiété autour de l’utilisation de ChatGPT reflète l’anxiété générale qui l’entoure,” a-t-elle déclaré. “ChatGPT est un outil.”
McSherry a mentionné que l’anxiété publique liée à l’utilisation de l’IA générative détourne l’attention de questions plus importantes, telles que celles relatives aux motifs de Livelsberger. “Ce sont des questions plus difficiles mais probablement plus essentielles,” a-t-elle souligné. De telles questions, les autorités tentent encore d’y répondre, a déclaré le shérif adjoint Kevin McMahill lors d’un point de presse le 6 janvier.
Cependant, McMahill a noté que l’utilisation de ChatGPT dans les plans de Livelsberger représentait un “moment préoccupant.”
“C’est le premier incident dont j’ai connaissance sur le sol américain où ChatGPT a été utilisé pour aider un individu à construire un dispositif particulier,” a déclaré McMahill lors de la conférence de presse du 6 janvier. “C’est instructif pour nous.”
McMahill a ajouté qu’il ne pensait pas que les recherches de Livelsberger sur ChatGPT auraient pu alerter les autorités avant l’explosion. Cette technologie est quelque chose que Maynard a suggéré que les gens commencent à considérer, s’ils ne le font pas déjà.
“Il est absolument essentiel que les agences d’application de la loi soient à jour sur la façon dont les gens utilisent ces plateformes et comment ils pourraient potentiellement les utiliser, sinon elles vont être prises au dépourvu,” a souligné Maynard. “Ignorer cela ou ne pas agir rapidement place ces agences dans une position précaire.”
Contactez Estelle Atkinson à eatkinson@reviewjournal.com. Suivez @estelleatkinson.bsky.social sur Bluesky et @estellelilym sur X.
Points à retenir
- L’incident met en lumière le besoin urgent d’adapter les réglementations concernant l’utilisation de l’IA aux avancées technologiques.
- Le rôle d’OpenAI et de ChatGPT dans la diffusion d’informations sensibles soulève des préoccupations éthiques et juridiques.
- Le système de politiques d’OpenAI doit être constamment évalué et ajusté pour prévenir des utilisations abusives.
Il est intéressant de réfléchir à l’impact que des technologies comme ChatGPT peuvent avoir sur nos sociétés. Alors que la puissance et la rapidité d’accès à l’information augmentent, les questions de responsabilité et de réglementation deviennent primordiales. Comment équilibrer innovation et sécurité ? Ce débat souligne l’importance d’une vigilance continue, aussi bien de la part des développeurs que des utilisateurs.