Une vulnérabilité au sein de l’API de ChatGPT d’OpenAI pourrait potentiellement être exploitée pour lancer des attaques par déni de service distribué (DDoS) sur des sites web, selon un chercheur.

Cette découverte a été réalisée par Benjamin Flesch, un chercheur en sécurité en Allemagne, qui a détaillé la faille et ses possibilités d’exploitation sur GitHub. D’après Flesch, le problème réside dans la façon dont l’API gère les requêtes HTTP POST vers le point de terminaison /backend-api/attributions. Ce dernier permet de soumettre une liste de liens via le paramètre “urls”.

Le souci provient de l’absence de limites sur le nombre de liens pouvant être inclus dans une seule requête. Ainsi, des attaquants peuvent facilement saturer les requêtes en y injectant de nombreux URLs via l’API. De plus, l’API d’OpenAI ne vérifie pas si les liens pointent vers la même ressource ou s’ils sont des doublons.

Cette vulnérabilité peut être exploitée pour submerger tout site web ciblé par un utilisateur malveillant. En intégrant des milliers de liens dans une seule requête, un attaquant peut amener les serveurs d’OpenAI à générer un volume considérable de requêtes HTTP vers le site de la victime. Les connexions simultanées peuvent mettre à mal, voire désactiver, l’infrastructure du site ciblé, réalisant ainsi une attaque DDoS.

La gravité de la situation est accentuée par l’absence de mécanismes de limitation de débit ou de filtrage des requêtes en double dans l’API d’OpenAI. Flesch soutient qu’en n’instaurant pas de mesures de protection, OpenAI fournit accidentellement un vecteur d’amplification susceptible d’être utilisé à des fins malveillantes.

Flesch souligne également que cette vulnérabilité met en avant de mauvaises pratiques de programmation et un manque d’attention aux considérations de sécurité. Il recommande qu’OpenAI corrige ce problème en appliquant des limites strictes sur le nombre d’URLs pouvant être soumises, en s’assurant que les requêtes en double soient filtrées et en ajoutant des mesures de limitation de débit pour prévenir les abus.

Les experts en sécurité partagent l’avis de Flesch. Elad Schulman, fondateur et PDG de Lasso Security Inc., une entreprise spécialisée dans la sécurité de l’IA générative, a déclaré par email à SiliconANGLE que “les crawlers de ChatGPT lancés via des chatbots présentent des risques significatifs pour les entreprises, y compris des dommages à la réputation, l’exploitation de données et l’épuisement des ressources à travers des attaques telles que le DDoS et le vol de budgets.”

“Les hackers ciblant les chatbots d’IA générative peuvent utiliser ces derniers pour vider les ressources financières d’une victime, surtout en l’absence de garde-fous nécessaires,” a ajouté Schulman. “En utilisant ces techniques, les hackers peuvent rapidement dépenser un budget mensuel prévu pour un chatbot basé sur un modèle de langage.”

Image : SiliconANGLE/DALL-E 3

Points à retenir

  • Une vulnérabilité dans l’API de ChatGPT permet d’injecter un nombre illimité de liens, rendant possible des attaques DDoS.
  • Les recommandations pour sécuriser l’API incluent l’implémentation de limites sur le nombre de liens et le filtrage des doublons.
  • Les cyberattaques sur les chatbots pourraient avoir des conséquences financières significatives pour les entreprises visées.

En conclusion, cette situation souligne la nécessité d’une vigilance accrue en matière de cybersécurité, d’autant plus que les technologies d’IA deviennent omniprésentes. Quelles mesures préventives devraient être mises en place pour garantir la sécurité des systèmes face à de telles vulnérabilités ? Une réflexion sur la responsabilité des développeurs et l’importance de meilleures pratiques en matière de sécurité s’impose.




By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *