Selon une étude présentée lors de la Conférence sur l’Intelligence Machine en Imagerie Médicale (CMIMI), ChatGPT-4 fait preuve d’une précision raisonnable dans l’identification des termes radiologiques présents dans les rapports de radiographies thoraciques.
Une équipe dirigée par Jad Alsheikh de l’Université Creighton à Omaha, NE, a également constaté que ce modèle linguistique développé peut tenir compte des variations de terminologie, bien que ses performances varient pour les termes moins courants. Les résultats de ce groupe ont été mis en avant lors d’une présentation par affiche lors de la réunion organisée par la Society for Imaging Informatics in Medicine (SIIM).
“Cette étude met en lumière le potentiel de GPT-4 pour améliorer la compréhension par les patients des rapports radiologiques en offrant une base de données fiable de termes,” a déclaré l’équipe de Jad Alsheikh.
Les chercheurs continuent d’explorer les capacités des grands modèles linguistiques comme ChatGPT pour aider à la rédaction de rapports médicaux, y compris ceux des radiologues. L’automatisation réussie de la génération de rapports d’imagerie pourrait libérer du temps aux radiologues, qui pourraient alors se concentrer sur les examens d’imagerie et les consultations avec les patients. De plus, certains rapports radiologiques contiennent un langage technique qui peut être difficile à comprendre pour les patients.
Alsheikh et ses collègues ont évalué la précision de ChatGPT-4 dans l’identification de termes radiologiques courants issus de rapports de radiographies thoraciques, cherchant à évaluer le potentiel du modèle pour créer une base de données mettant en avant et définissant des termes médicaux.
Les chercheurs ont constitué deux listes des 40 findings et phrases radiologiques les plus courants. La première liste était constituée de données issues de 3 999 rapports du service Open-i de la Bibliothèque Nationale de Médecine. La seconde liste a été générée par GPT-4, qui a identifié ce qu’il considérait comme les 40 phrases et findings les plus courants.
Le groupe a rapporté que GPT-4 était capable d’identifier avec précision les termes courants. Parmi les termes ayant un haut pourcentage de correspondance exacte entre les deux listes figuraient l’épanchement pleural (100%), l’œdème pulmonaire (100%) et le pneumothorax (73,7%).
Les mesures de précision, de rappel et le score F1 ont atteint 0,3, ce qui indique un chevauchement modéré entre les termes identifiés par GPT-4 et les rapports de radiographies thoraciques. De plus, une corrélation de rang de Spearman de 0,32 a été observée, suggérant une faible corrélation entre les rangs des fréquences des termes dans la liste de GPT-4 et dans les rapports.
Enfin, une analyse du chi carré a révélé que les différences entre les fréquences des termes dans les rapports réels et ceux identifiés par GPT-4 étaient statistiquement significatives.
Les auteurs de l’étude concluent que l’intégration d’outils d’IA tels que ChatGPT pourrait améliorer la communication et l’engagement des patients en radiologie, contribuant ainsi à des résultats de santé de meilleure qualité.
Notre Point de vue
Dans un paysage médical en constante évolution, l’emploi de l’intelligence artificielle comme ChatGPT-4 présente des avantages indéniables, notamment en matière de compréhension des rapports radiologiques par les patients. Cela pourrait transformer la relation entre les praticiens et les patients, en rendant l’information médicale plus accessible. Cependant, il est essentiel de traiter avec soin les limites de cette technologie. Loin d’être une solution miracle, l’IA doit être utilisée en complément des compétences humaines, afin d’assurer une communication claire et efficace tout en maintenant la qualité des soins.
- Source image(s) : www.auntminnie.com
- Source : https://www.auntminnie.com/resources/conference/cmimi/2024/article/15706378/cmimi-chatgpt-reasonably-accurate-for-identifying-chest-xray-terms