La FDA a récemment publié un projet de directive qui présente des recommandations pour l’utilisation de l’intelligence artificielle (IA) dans le cadre des décisions réglementaires liées à la sécurité, l’efficacité et la qualité des médicaments et des produits biologiques. Cette initiative marque le premier guide de l’agence en matière d’applications de l’IA dans le développement de médicaments et de produits biologiques.

« La FDA s’engage à soutenir les approches innovantes pour le développement des produits médicaux en offrant un cadre agile basé sur les risques qui favorise l’innovation tout en garantissant le respect des normes scientifiques et réglementaires rigoureuses de l’agence », a déclaré Robert M. Califf, MD, commissaire de la FDA, dans un communiqué de presse. « Avec les garanties adéquates en place, l’intelligence artificielle a un potentiel transformateur pour faire progresser la recherche clinique et accélérer le développement de produits médicaux dans le but d’améliorer les soins aux patients. »

La FDA a souligné que les nouvelles directives visent à définir le contexte d’utilisation – l’application spécifique d’un modèle d’IA – et à évaluer sa crédibilité pour cette finalité, en s’appuyant sur l’expérience de l’agence dans l’examen de plus de 500 soumissions impliquant des composants d’IA depuis 2016. Actuellement, les applications de l’IA sont utilisées pour prédire les résultats des patients, comprendre la progression des maladies et analyser des ensembles de données complexes. Par conséquent, la FDA suggère que toutes les évaluations réglementaires doivent garantir la crédibilité des modèles, c’est-à-dire la confiance dans les performances d’un modèle d’IA pour un contexte d’utilisation donné.

Lors du sommet US Pharma and Biotech de l’année dernière organisé par le Financial Times, Pharmaceutical Executive a interviewé Tala Fakhouri, directrice adjointe à la FDA en charge de l’analyse politique, pour discuter de l’utilisation de l’IA ainsi que de l’apprentissage automatique du point de vue de l’organisme de réglementation.

« Pour la FDA, notre approche est toujours basée sur le risque pour les approbations de médicaments. Nous faisons également de notre mieux pour être réactifs face aux nouvelles technologies émergentes », a déclaré Fakhouri. « Cela ne concerne pas seulement l’IA, si l’on considère l’utilisation des données du monde réel ou des technologies de santé numériques dans la recherche clinique. Dans le cadre d’un essai clinique, ce sont tous des technologies émergentes qui évoluent continuellement. Nous prévoyons d’évoluer avec tous ces outils émergents au fur et à mesure de leur disponibilité. »

Comme mentionné précédemment, Fakhouri a également abordé le nombre élevé de soumissions incluant de l’IA depuis 2016.

« Comme je l’ai dit, nous avons reçu plus de 300 soumissions avec des composants d’IA et d’apprentissage machine. Selon le contexte spécifique du risque associé à l’utilisation de ce modèle, quelle quantité d’informations ou de données de ce modèle suis-je prêt à utiliser pour prendre une décision réglementaire ? Tous ces éléments influenceront le type d’informations que nous demanderons au sponsor de nous fournir », a poursuivi Fakhouri.

En octobre, la FDA a publié des directives mises à jour concernant l’utilisation de l’IA pour le développement de médicaments, affirmant qu’elle reconnaît le rôle croissant de l’IA tout au long du cycle de vie des médicaments, des étapes non cliniques et cliniques à la fabrication et au post-commercialisation. Plus tôt dans l’année, le Centre d’évaluation et de recherche sur les médicaments (CDER) avait publié un projet de directive abordant l’utilisation de l’IA dans la prise de décisions réglementaires. De ce fait, les directives de la FDA sont influencées par des retours d’information publics étendus, l’examen par le CDER de plus de 500 soumissions liées à l’IA depuis 2016, des ateliers avec les parties prenantes et s’inscrivent dans des efforts plus larges de la FDA pour garantir une utilisation responsable de l’IA.

Pour aller de l’avant, la FDA encourage les sponsors à s’engager tôt afin de garantir que leurs modèles d’IA respectent les normes de crédibilité requises. Parallèlement au projet de directive, l’agence a également formulé des recommandations spécifiques aux dispositifs médicaux intégrant l’IA, renforçant son engagement en faveur d’une utilisation éthique et responsable de l’IA tout en maintenant des normes rigoureuses de sécurité et d’efficacité.

Points à retenir

  • La FDA propose un cadre pour l’utilisation de l’IA dans les processus réglementaires liés aux médicaments.
  • Les nouvelles directives soulignent l’importance d’une évaluation rigoureuse de la crédibilité des modèles d’IA.
  • L’agence encourage les interactions précoces entre les sponsors et la FDA pour aligner les attentes et les exigences.

Il est évident que l’intégration de l’IA dans le développement pharmaceutique soulève des enjeux cruciaux tant sur le plan scientifique que réglementaire. À mesure que cette technologie évolue, il sera intéressant d’observer comment la FDA s’adapte aux nouvelles innovations tout en veillant à ce que la sécurité et l’efficacité restent des priorités absolues. Cela pose également la question de la responsabilité éthique en matière d’IA dans le domaine de la santé et l’impact que cela peut avoir sur les politiques de santé publique.



  • Source image(s) : www.pharmexec.com
  • Source : https://www.pharmexec.com/view/fda-issues-new-recommendations-artificial-intelligence-support-regulatory-actions


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *