Promesses – et pièges – de la médecine assistée par ChatGPT

NPeu de temps après que la société d’intelligence artificielle OpenAI a publié son chatbot ChatGPT, l’application est devenue virale. Cinq jours après sa sortie, il avait engrangé 1 million d’utilisateurs. Depuis, il s’appelle changer le mondeun point de basculement pour l’intelligence artificielle, et le début d’une nouvelle révolution technologique.

Comme d’autres, nous avons commencé à explorer des applications médicales potentielles pour ChatGPT, qui a été formé sur plus de 570 gigaoctets de données textuelles en ligne, extraites de sources telles que des livres, des textes Web, Wikipédia, des articles et d’autres contenus sur Internet, y compris certains axés sur la médecine et les soins de santé. Bien que l’utilisation potentielle de l’IA telle que ChatGPT pour des applications médicales nous passionne, les inexactitudes, les confabulations et les préjugés nous font hésiter à approuver son utilisation en dehors de certaines situations. Celles-ci incluent la rationalisation des tâches éducatives et administratives pour aider à la prise de décision clinique, bien que même là, l’application présente des problèmes et des pièges importants.

Comme aide pédagogique

Aux États-Unis, l’éducation médicale continue pouce de distance d’un système axé sur la mémorisation et la conservation des informations à l’accent mis sur la conservation et l’application des connaissances médicales. Des systèmes d’IA comme ChatGPT pourraient faciliter cette transition en aidant les étudiants en médecine et les médecins à apprendre plus efficacement, en créant des dispositifs de mémoire uniques (“créer un mnémonique pour les noms des nerfs crâniens ») à l’explication de concepts complexes dans un langage plus ou moins complexe (« expliquez-moi la tétralogie de Fallot comme si j’étais un 10ème annéeun étudiant en première année de médecineou un boursier en cardiologie“).

publicité

En interrogeant ChatGPT, nous avons appris qu’il peut aider à étudier pour des examens médicaux standardisés en générant de la qualité questions pratiques accompagnées d’explications détaillées sur réponses correctes et incorrectes. Il ne faut peut-être pas s’étonner que, dans une étude récente publié en prépublication – dans lequel ChatGPT a été répertorié comme co-auteur – l’application a réussi les deux premières étapes de l’examen de licence médicale des États-Unis, l’examen national que la plupart des étudiants en médecine américains passent pour obtenir des licences médicales.

La conception réactive de ChatGPT peut également simuler un patient et être invité à fournir des antécédents médicaux, des résultats d’examen physique, des résultats de laboratoire, etc. Avec sa capacité à répondre aux questions de suivi, ChatGPT pourrait offrir des opportunités d’affiner les compétences diagnostiques et le sens clinique d’un médecin de manière plus générale, mais avec un niveau élevé de scepticisme.

publicité

Bien que ChatGPT puisse aider les médecins, ils doivent faire preuve de prudence et ne pas l’utiliser comme source principale sans vérification.

Pour les travaux administratifs

En 2018, dernière année pour laquelle on a pu trouver des statistiques solides, 70 % des médecins ont déclaré avoir passé au moins 10 heures sur la paperasse et les tâches administrativesavec près d’un tiers d’entre eux y consacrant 20 heures ou plus.

ChatGPT pourrait être utilisé pour aider les travailleurs de la santé à gagner du temps avec des tâches non cliniques, ce qui contribuer au burn-out et enlèvent du temps d’interaction avec les patients. Nous avons constaté que l’ensemble de données de ChatGPT inclut le Terminologie procédurale actuelle (CPT), un système normalisé d’identification des procédures et des services médicaux que la plupart des médecins utilisent pour facturer les procédures ou les soins qu’ils fournissent. Pour tester son bon fonctionnement, lorsque nous avons demandé à ChatGPT plusieurs codes de facturation, il nous a donné le bon code pour les vaccins Covid mais des codes inexacts pour amniocentèse et radiographie du sacrum. Autrement dit, pour l’instant, proche mais pas de cigare sans amélioration substantielle.

Les cliniciens passent un temps démesuré à écrire des lettres pour défendre les besoins des patients en matière d’autorisation d’assurance et d’entrepreneurs tiers. ChatGPT pourrait vous aider dans cette tâche fastidieuse. Nous a demandé à ChatGPT« Pouvez-vous rédiger une lettre d’autorisation pour Blue Cross concernant l’utilisation d’un échocardiogramme transœsophagien chez un patient atteint d’une maladie valvulaire ? Le service n’est pas couvert par l’assureur. Veuillez incorporer des références qui incluent la recherche scientifique. En quelques secondes, nous avons reçu un e-mail personnalisé qui pourrait servir de modèle de gain de temps pour cette demande. Cela a nécessité quelques modifications, mais a généralement fait passer le message.

Applications cliniques

L’utilisation de ChatGPT en médecine clinique doit être abordée avec plus de prudence que sa promesse dans le travail éducatif et administratif. Dans la pratique clinique, ChatGPT pourrait rationaliser le processus de documentation, en générant des dossiers médicaux, des notes d’évolution et des instructions de sortie. Jeremy Faust, médecin urgentiste au Brigham and Women’s Hospital de Boston, par exemple, a mis ChatGPT à l’épreuve en demandant un dossier pour un patient fictif qui tousseauquel le système a répondu avec un modèle qui, selon Faust, était “étrangement bon”. Le potentiel est évident : aider les travailleurs de la santé à trier un ensemble de symptômes, déterminer les doses de traitement, recommander un plan d’action, etc. Mais le risque est important.

L’un des problèmes majeurs de ChatGPT est sa capacité à générer des informations inexactes ou fausses. Lorsque nous avons demandé à l’application de donner un diagnostic différentiel pour hémorragie post-partumil semblait faire un travail d’expert et offrait même des preuves scientifiques à l’appui. Mais lorsque nous avons examiné les sources, aucun d’entre eux n’a réellement existé. Faust a identifié une erreur similaire lorsque ChatGPT a déclaré que la costochondrite – une cause fréquente de douleur thoracique – peut être causée par les pilules contraceptives orales, mais a confabulé un faux document de recherche pour étayer cette affirmation.

Ce potentiel de tromperie est particulièrement inquiétant étant donné que une pré-impression récente ont montré que les scientifiques ont du mal à faire la différence entre la vraie recherche et les faux résumés générés par ChatGPT. Le risque de désinformation est encore plus grand pour les patients, qui pourraient utiliser ChatGPT pour rechercher leurs symptômes, comme beaucoup le font actuellement avec Google et les autres moteurs de recherche. En effet, ChatGPT a généré une horrible explication convaincante sur la façon dont “la porcelaine broyée ajoutée au lait maternel peut soutenir le système digestif du nourrisson”.

Nos préoccupations concernant la désinformation clinique sont encore renforcées par le potentiel de biais dans les réponses de ChatGPT. Lorsqu’un utilisateur a demandé à ChatGPT de générer du code informatique pour vérifier si une personne serait un bon scientifique en fonction de sa race et de son sexe, le programme a défini un bon scientifique comme étant un mâle blanc. Bien qu’OpenAI puisse être en mesure de filtrer certains cas de biais explicites, nous nous inquiétons des cas de biais plus implicites qui pourraient contribuer à perpétuer la stigmatisation et la discrimination au sein des soins de santé. De tels biais peuvent survenir en raison de la taille réduite des échantillons de données de formation et de la diversité limitée de ces données. Mais étant donné que ChatGPT a été formé sur plus de 570 gigaoctets de données textuelles en ligne, les biais du programme peuvent plutôt refléter l’universalité des biais sur Internet.

Et après?

Les outils d’intelligence artificielle sont là pour rester. Ils sont déjà utilisés comme aides à la décision clinique pour aider à prévoir maladie rénalesimplifier rapports de radiologieet avec précision prévoir les taux de rémission de la leucémie. La récente publication de Med-PaLM de Google, un modèle d’IA similaire conçu pour la médecine, et d’OpenAI Interface de programmation d’applicationsqui peut tirer parti de ChatGPT pour créer des logiciels de soins de santé, ne fait que souligner davantage la révolution technologique qui transforme les soins de santé.

Mais dans ce plan de progression apparemment sans fin, un outil imparfait est déployé sans les garde-corps nécessaires en place. Bien qu’il puisse y avoir des utilisations acceptables de ChatGPT dans l’enseignement médical et les tâches administratives, nous ne pouvons pas approuver l’utilisation du programme à des fins cliniques – du moins dans sa forme actuelle.

Lancé au public en tant que produit bêta, ChatGPT va sans aucun doute s’améliorer, et nous anticipons l’arrivée de ChatGPT-4, dont nous espérons que les performances seront améliorées avec une précision et une efficacité accrues. La sortie d’un outil puissant tel que ChatGPT suscitera l’admiration, mais en médecine, il doit susciter une action appropriée pour évaluer ses capacités, atténuer ses méfaits et faciliter son utilisation optimale.

Rushabh H. Doshi est étudiant en médecine à la Yale School of Medicine. Simar S. Bajaj est étudiant de premier cycle à l’Université de Harvard. Les auteurs remercient Harlan M. Krumholz, directeur du Center for Outcome Research Evaluation de l’hôpital Yale-New Haven, pour sa contribution et son aide dans cet essai.


Bulletin Premier Avis : Si vous aimez lire des essais d’opinion et de perspective, recevez un résumé des premières opinions de chaque semaine dans votre boîte de réception tous les dimanches. Inscrivez-vous ici.

Leave a Comment