Selon les données de l’année dernière, environ un quart des demandes de remboursement d’assurance santé ont été rejetées en Californie, une tendance que l’on observe également à l’échelle nationale et qui suscite une colère croissante du public envers les entreprises de santé. Cette situation a été évoquée comme un manque d’empathie humaine dans la prise de décisions.
Afin d’aborder ce sujet délicat, un nouvel amendement législatif est entré en vigueur ce mois-ci, interdisant que ces refus soient basés uniquement sur des algorithmes d’intelligence artificielle. Ce texte, signé par le gouverneur Gavin Newsom en septembre dernier, est connu sous le nom de “Loi sur les décisions médicales par les médecins” ou Sénat Bill 1120. Ce projet de loi vient à un moment où l’exaspération envers le système d’assurance santé s’accentue. Le meurtre hautement médiatisé du cadre de UnitedHealthcare, Brian Thompson, à New York, a provoqué des réactions qui traduisent souvent cette frustration du public.
D’après des données de 2024 de la California Nurses Association, près de 26 % des demandes d’assurance sont rejetées, un des nombreux éléments ayant conduit l’auteur principal de la loi, le sénateur Josh Becker, démocrate de Menlo Park, à agir.
« En 2021, les compagnies d’assurance santé ont refusé plus de 49 millions de demandes à l’échelle nationale, » a déclaré Becker, en se référant aux données fournies par la Kaiser Family Foundation. « Pourtant, moins de 0,2 % des clients ont fait appel de ces décisions. »
En novembre 2023, un procès contre UnitedHealthcare a mis en lumière des préoccupations concernant l’utilisation abusive de l’intelligence artificielle dans la prise de décisions liées aux assurances santé, accusant l’entreprise d’employer cette technologie pour rejeter des demandes de remboursement.
Bien que la SB 1120 n’interdise pas complètement l’utilisation de l’IA, elle exige que le jugement humain reste au cœur des décisions concernant les couvertures. Selon la nouvelle loi, les outils d’intelligence artificielle ne peuvent pas être utilisés pour refuser, retarder ou modifier des services de santé jugés médicalement nécessaires par les médecins.
« Un algorithme ne peut pas appréhender pleinement l’historique médical et les besoins uniques d’un patient, et son utilisation inappropriée peut entraîner des conséquences désastreuses, » a ajouté Becker. « Cette loi garantit que la supervision humaine demeure essentielle dans les décisions de soins de santé, préservant ainsi l’accès des Californiens à des soins de qualité. »
Becker a souligné l’importance d’équilibrer l’innovation et la protection des soins aux patients.
« L’intelligence artificielle a un potentiel considérable pour améliorer la prestation des soins de santé, mais elle ne doit jamais remplacer l’expertise et le jugement des médecins, » a-t-il précisé.
Le California Department of Managed Health Care sera chargé de l’application de la loi, procédant à des audits sur les taux de refus et garantissant la transparence. La loi impose également des délais stricts pour les autorisations : les cas normaux doivent faire l’objet d’une décision dans les cinq jours ouvrables, les cas urgents dans les 72 heures, et les révisions rétrospectives dans les 30 jours.
En vertu de la SB 1120, les régulateurs de l’État peuvent infliger des amendes aux compagnies d’assurance et déterminer les montants à payer en cas d’infraction, tels que les délais non respectés ou l’utilisation inappropriée de l’IA.
Erin Mellon, porte-parole de l’Association médicale de Californie, co-parrain de la loi, a souligné l’importance de protéger la relation entre le médecin et le patient.
« L’intelligence artificielle peut améliorer les soins aux patients, mais elle ne doit pas nuire à cette relation, » a déclaré Mellon. « Des rapports récents soulignent des cas où des outils automatisés ont indûment refusé l’accès à des soins médicalement nécessaires. En général, les médecins soutiennent l’IA dans le domaine de la santé, à condition qu’elle améliore les soins tout en respectant les besoins des médecins et des patients. »
Paula Wolfson, gestionnaire chez Avenidas Care Partners, une organisation à but non lucratif qui aide les personnes âgées, a évoqué les difficultés rencontrées par ses clients face aux refus d’assurance.
« Cela engendre un stress énorme, » a-t-elle déclaré. « J’entends parler de familles confrontées à des situations à risque élevé parce qu’elles n’ont pas accès aux services de santé dont elles ont besoin. »
Wolfson a salué l’approche proactive de la Californie en matière de réglementation de l’IA dans le secteur de la santé.
« Cela me donne un espoir que les décideurs apportent bon sens et sensibilité à ces décisions, » a-t-elle ajouté.
Face à l’inquiétude croissante concernant les pratiques des assurances santé, Becker a noté que l’approche californienne suscite un intérêt au niveau national.
« Dix-neuf États examinent actuellement des lois similaires, » a précisé Becker. « Nous avons même été contactés par plusieurs bureaux du Congrès envisageant une législation fédérale. Notre priorité est d’aider les Californiens, mais établir un modèle national est tout aussi essentiel. »
Points à retenir
- La nouvelle loi de Californie vise à limiter l’utilisation de l’IA dans les décisions d’assurance santé.
- Un quart des demandes de remboursement sont souvent rejetées dans cet État.
- Les régulateurs se verront attribuer des pouvoirs pour infliger des amendes en cas d’infractions aux nouvelles règles.
La législation en Californie soulève des questions essentielles concernant le rôle croissant de la technologie dans des domaines aussi critiques que la santé. La tension entre innovation et humanité pourrait-elle mener à un nouveau modèle de soins, où la technologie et la compassion coexistent harmonieusement ?
- Source image(s) : www.mercurynews.com
- Source : https://www.mercurynews.com/2025/01/05/new-california-law-ban-artificial-intelligence-deny-insurance-claims/
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.