ChatGPT m’a tué ?

Paris, le samedi 1er avril 2023 – ChatGPT (Generative Pretrained Transformer) a gagné ses lettres de noblesse. Sur Twitter, les discussions autour de l’élaboration de ce logiciel qui fait couler beaucoup d’encre sont presque aussi prolixes que celles concernant l’origine de SARS-Cov-2 et quand les esprits s’échauffent les théories les plus inattendues sont une nouvelle fois testées. Ainsi quelques internautes ont suggéré que les docteurs Jérôme Marty (président de l’Union française pour une médecine libre, très actif pour dénoncer sur Twitter les colporteurs de fausses nouvelles) et le Dr Matthias Wargon (urgentiste et qui partage la même pugnacité) pourraient être les inventeurs de ChatGTP… alors qu’en dépit de leurs multiples talents, ils n’ont jamais manifesté publiquement d’appétence particulière pour les algorithmes et le machine learning. Réussir à susciter de telles projections chez certains esprits prompts à adhérer aux théories complotistes n’est pas le moindre des exploits de ChatGPT.

Une tuerie …et une révolution civilisationnelle

Mais le Dr Wargon ne lui en tient pas rigueur qui après avoir récemment demandé à la plus récente version de ChatGPT de lui rédiger une fiche sur la prise en charge de l’urgence cardiaque pour les médecins et les infirmiers a félicité sur Twitter : « Ça m’a pris moins de 2 minutes et c’est même pas la version 4, ce truc est une tuerie ». Bien sûr, comme le rappelle l’Inserm dans une récente note proposée par son fil Canal Detox, l’utilisation de l’intelligence artificielle (IA) n’est pas complètement une nouveauté. Depuis le fameux Dr Watson d’IBM, un long chemin a été parcouru et l’utilisation de logiciels d’interprétations des examens d’imagerie tend par exemple à se démocratiser. Cependant, la puissance de ChatGPT, symbolisée par sa rapidité et plus encore sa simplicité d’accès, suscite une nouvelle vague de curiosité et d’enthousiasme. Bien sûr il y a les dithyrambiques, parfois sans nuance, tel le Dr Laurent Alexandre qui voit dans chat GPT une révolution civilisationnelle et qui met en garde tous ceux qui minimiseraient l’importance de cette rupture. Il y a dans cette prophétie une forme d’appétence pour la « fin du monde » ou en tout cas un « désir d’événement » (comme aurait pu le dire Jean Baudrillard). Par ailleurs la peur du remplacement de l’homme par la machine est loin d’être une idée neuve. Ce qui est cependant un peu plus inédit est le fait que ce remplacement ne concerne plus seulement la force physique, mais également potentiellement la « force intellectuelle », et donc potentiellement les médecins. 

Un bond pour la qualité de vie au travail

Cependant, une partie d’entre eux, plutôt que de redouter l’arrivée de ChatGPT, en espèrent déjà les bénéfices, pour leur travail quotidien, non directement clinique. C’est le Dr Wargon par exemple qui relève la supériorité des performances de ChatGPT par rapport aux logiciels métiers classiques. De la même manière, à l’occasion d’une conférence organisée par le club digital en santé, il a été souligné combien les IA conversationnelles pouvaient améliorer la qualité de vie au travail, en « réduisant la charge mentale de recherche des connaissances », diminuant « les tâches de saisie des données fastidieuses » ou encore en facilitant la « transcription automatique des notes des professionnels ». Parallèlement, les performances médicales et diagnostiques de l’outil sont vantées. Le Dr Clarisse Audigier-Valette (chef de pôle au Centre hospitalier de Toulon en oncologie) lance ainsi sur un ton badin : « Chers confrères, je vous présente mon nouvel interne #Chat GPT. Je pense qu’on va bientôt disparaître de la planète » prophétise-t-elle en présentant les résultats obtenus après avoir demandé au logiciel de lui écrire une « observation d’entrée à partir du dossier des Urgences » de quelques patients (anonymisés). Disparaître, voilà qui ne terrorise guerre le médecin auteur du compte MnM qui commente : « L’objectif de l'humanité est de pouvoir subvenir à ses besoins primitifs sans bosser. C'est le sens de l'histoire depuis la sédentarisation et l'élevage il y a 5k années. Et c'est une bonne chose que tous les emplois disparaissent et qu'on ne fasse que ce qui nous passionne ». Moins philosophe mais tout aussi séduit, le compte Biohospitalix (très pédagogique concernant l’épidémie de Covid) observe aussi : « Bon je viens de me payer ChatGPT4 pour voir un mois (20$). Je lui ai donné un bilan bio (insuffisance rénale, ndlr) à interpréter pour voir. Je peux aller me coucher. Il est bon, très bon ». Tous, néanmoins, ne partagent pas cette ferveur et cet optimiste. Alors que Biohospitalix a proposé à sa communauté de défier ChatGPT, certains se montrent dubitatifs sur les réponses de l’intelligence artificielle. Le Dr Thibaut Jacques radiologue (spécialité « menacée » s’il en est par ChatGPT) analyse en lisant la copie du logiciel à la question « Comment peut-on différencier un Modic 1 et une spondylodiscite sur une séquence T2 DIXON ? » : « Il y a du juste et du moins juste… et il dit qu’il faut quand même demander à un radiologue ». Plus sévère, l’anesthésiste « Marchand de sommeil » tranche en lisant la réponse à la question : « Quel type d'anesthésie faut-il faire pour un patient avec un rétrécissement aortique symptomatique qui a une fracture du col du fémur ? » : « Au milieu des formules creuses pas mal de bêtises. Je suis rassuré » et n’est pas plus convaincu en lisant la version de ChatGPT 4 : « C’est imprécis », assène-t-il.

Démêler le vrai de l’IA

Ces praticiens réticents font écho à l’analyse prudente de l’INSERM qui remarquait : « Dans les sciences biomédicales, l’IA est depuis plusieurs années considérée comme une méthode prometteuse, pouvant potentiellement bénéficier au patient. Parmi les innovations attendues : l’optimisation de la prise en charge du patient, l’amélioration du diagnostic des maladies, la prédiction de l’état de santé futur du patient et la personnalisation de son suivi. En radiologie et en oncologie par exemple, des financements massifs ont déjà été alloués à des équipes de recherche travaillant sur le sujet. Cependant, la réalité du terrain est plus nuancée. De nombreux systèmes d’IA développés ces dernières années se sont en fait avérés plutôt décevants. Parmi les exemples les plus connus, on peut citer celui de l’IA IBM Watson Health. Ce système a été conçu pour guider la pratique des médecins, afin de les aider à améliorer les soins et de proposer les traitements les plus adaptés aux patients, notamment en oncologie. Toutefois, pour développer et entraîner l’IA, des données jugées de mauvaises qualités ainsi que des populations non représentatives auraient été sélectionnées, et une méthodologie inadéquate aurait été utilisée. Les modèles finaux présentaient des performances faibles susceptibles d’entraîner des erreurs médicales si les professionnels de santé avaient suivi les recommandations de l’IA à la lettre. D’autres études ont montré que l’intelligence artificielle pouvait être utilisée en clinique pour prédire le risque de maladie cardiovasculaire ou encore le devenir de patients atteints de certains cancers. Cependant, la fiabilité des résultats variait grandement en fonction de la qualité des données utilisées pour alimenter les systèmes d’IA. Ces cas illustrent un paradoxe que de nombreux chercheurs tentent de mettre en avant depuis plusieurs années. En théorie, l’IA est censée être plus efficace pour développer un modèle diagnostique ou pronostique, par rapport aux méthodes traditionnellement utilisées en médecine, car elle est capable d’intégrer une plus grande quantité de données et de paramètres. Néanmoins, dans les faits, elle ne fait pas toujours mieux ». Par ailleurs, l’INSERM met en garde contre les risques associés à l’IA, et notamment celui de diffusion de fausses informations, d’autant plus que les humains (et l’IA elle-même) se montrent assez peu performants quand il s’agit de détecter ce qui a été rédigé par un homme ou par un robot.

ChatGPT explose et les médecins défendent leur monopole 

Cependant, compte tenu notamment de la rapidité des améliorations de l’IA (comme l’ont montré les progrès de ChatGPT entre ses versions 3,4 et 5) et du fait que ses limites et défauts ne sont finalement qu’un reflet de nos propres limites, on ne peut faire l’économie d’une véritable réflexion sur les changements que devrait faire naître le logiciel. C’est le sens du message d’un collectif de médecins (dont le chirurgien Guy Valancien ou l’interne en santé publique, Gaetan Casanova) et de spécialistes du digital qui dans une tribune des Echos commentent les enseignements précieux de la concomitance de deux évènements récents : les discussions conventionnelles et l’explosion de ChatGPT. « Il est des moments où l'on observe des collisions dans l'actualité qui portent à croire que l'Histoire s'écrit sous nos yeux. C'est le cas en santé, où nous assistons à l'émergence d'une innovation bouleversant la pratique médicale, et où dans le même temps, les leaders de certains syndicats de médecins militent pour conserver des acquis d'un temps révolu. En février 2016, alors que les taxis manifestaient dans Paris pour réclamer l'interdiction d'Uber en France, Volvo réalisait ses premiers tests de véhicules autonomes sur le rond-point de l'Etoile. En février 2023, pendant que les médecins refusent l'accord conventionnel, Chat GPT venait de réussir un examen américain de médecine . Le parallèle entre ces deux événements est troublant. Si la question du remplacement total du médecin par des IA prometteuses n'est pas d'actualité, celle de son évolution se pose. A une époque où des logiciels conversationnels peuvent répondre à de nombreuses questions médicales pointues et poser un diagnostic en quelques minutes, quelle sera la valeur ajoutée d'une médecine de ville, dont les revendications de ses représentants concernent exclusivement le tarif de la consultation et le refus des coopérations avec d'autres professions médicales ? Nous pensons qu'elle résidera dans sa capacité à animer un réseau de compétences médicales diverses et intégrées, dédié au soin et à la prévention. A ce titre, le projet de loi portée par la députée Rist (prévoyant l'accès direct à certains paramédicaux comme les kinés et les infirmiers en pratique avancée, en élargissant leurs responsabilités)constitue une réelle avancée dans l'accès aux soins sur un territoire.Alors que certains syndicats y voient la dilution du pouvoir quasi démiurgique du médecin, force est de constater que ce partage des tâches constitue l'avenir de la médecine. (…) La médecine traditionnelle est fortement concurrencée par les promoteurs d'une médecine dite « complémentaire » dans l'esprit de patients toujours plus sensibles à leurs promesses d'offrir une écoute ayant trop souvent disparu de la pratique « à l'acte ». Elle sera également bientôt concurrencée par les IA conversationnelles sur le diagnostic. Tant que l'Assurance maladie et les syndicats n'accepteront pas de changer de logiciel dans leurs négociations conventionnelles, ils ne répondront en rien à ces défis » concluent les auteurs.

Quelle spécialité pourrait-être « épargnée » ?

Et le lien avec le patient dans tout ça ? Pour le docteur Benchimol Yéhouda sur le site Doctinet, il est évident qu’il ne pourra être pris en charge par ce type de dispositif. « La technologie du chat GPT changera très probablement le modèle actuel des moteurs de recherche tel que Google. Une IA pourra peut-être vous fournir une information diagnostique plus ou moins précise, mais ne remplacera probablement jamais véritablement le vrai diagnostic médical ainsi que l’empathie et le soin apportés par un professionnel de santé » écrivait-il en janvier. D’ailleurs, ChatGPT pourrait même être l’origine de certains troubles : le neurologue qui écrit derrière le pseudo Qffwffq a ainsi récemment décrit le cas d’une patiente, traductrice douée, fortement affectée par « l’angoisse réelle et très concrète de perdre son job à cause de l’IA », profil auquel il ne pensait pas être confronté si tôt. Est-ce à dire que les psychiatres compteront parmi les spécialités qui seront les moins perturbées par l’IA ? Pas si sûr : il existe de nombreuses IA conversationnelles qui se piquent de soulager les solitudes et les anxiétés. Cependant, les patients se montrent souvent réticents vis-à-vis de ces dernières.

Le journaliste Pierre Luchon met ainsi en lumière dans un récent article publié sur Agora Vox : « Dans un sondage du Pew Resarch Center, publié par CNN Health, 60 % des Américains s’estiment gênés à l’idée que leur médecin s’appuie sur de l’intelligence artificielle. En particulier pour délivrer un diagnostic ou prescrire des médicaments. 57 % considèrent que cela pourrait altérer leur relation avec le personnel médical en question. 60 % ne souhaiteraient pas que leur opération chirurgicale soit conduite par un robot. Ils sont encore moins d’accord (à 79 %) pour qu’un chabot se mêle de leur suivi psychologique ». Derrière ces résultats, il y a sans doute une part importante d’ignorance que ce type d’outil est déjà fréquemment utilisé en médecine.

Banalité du mal

Voilà qui confirme bien l’importance de penser les enjeux éthiques de l’IA, comme nous y exhorte la chercheuse Laurence Devillers (Laboratoire interdisciplinaire des sciences du numérique, LISN/CNRS) qui concluait une récente tribune dans le Monde par cette boutade : « être les cobayes de ChatGPT doit nous amener à prendre collectivement conscience des enjeux éthiques de l’IA ! ». Cependant, certains semblent considérer que tout effort de régulation pourrait être vain puisque ChatGPT pourrait n’être qu’une nouvelle émanation de la « banalité du mal » (théorisée par Hannah Arendt). Telle est notamment la théorie du célèbre linguiste américain Noam Chomsky qui l’exprimait ce mois-ci dans les colonnes du New York Times. Sa pensée est décryptée dans un article de Philosophie Magazine par Martin Legros : « Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être. Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ? ». Comment la médecine pourra-t-elle se positionner face à ces enjeux ? Seul l’avenir (et peut-être ChatGPT) nous le dira.

On relira de façon intelligente ou pas :

Le fil de Matthias Wargon : https://twitter.com/wargonm/status/1637183472866324482

La note de l’INSERM : https://presse.inserm.fr/canal-detox/chatgpt-lia-prete-a-remplacer-les-chercheurs-et-les-medecins-vraiment/

Laurent Alexandre : https://twitter.com/search?q=Laurent%20Alexandre&src=typed_query

Le club digital en santé : https://club-digital-sante.info/replay-rencontre-irl-online-chatgpt-bientot-medecin/

Clarisse Audigier-Valette : https://twitter.com/CAudigierValett

MnM : https://twitter.com/DrMnM200

Biohospitalix : https://twitter.com/BioHospitalix/status/1636804691785809938

Thibaut Jacques : https://twitter.com/ThibautJacques

Marchand de sommeil : https://twitter.com/bentatoo31

Collectif de médecins : https://www.lesechos.fr/idees-debats/cercle/opinion-convention-medicale-attention-aux-combats-darriere-garde-1917123

Benchimol Yéhouda : https://www.doctinet.fr/chat-gpt-progres-ou-nouveau-risque-dans-la-relation-medecin-patient

Qffwffq : https://twitter.com/qffwffq?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor

Pierre Luchon : https://www.agoravox.fr/tribune-libre/article/intelligence-artificielle-ai-et-247244

Laurence Devillers : https://www.lemonde.fr/idees/article/2023/01/20/chatgpt-saluer-l-avancee-technologique-mais-comprendre-les-limites-de-ce-type-de-systeme_6158602_3232.html

Noam Chomssky : Opinion | Noam Chomsky: The False Promise of ChatGPT - The New York Times (nytimes.com)

Martin Legros : https://www.philomag.com/articles/chatgpt-chomsky-et-la-banalite-du-mal

Aurélie Haroche

Copyright © http://www.jim.fr

Réagir

Vos réactions (10)

  • Les limites de l'IA en pratique médicale

    Le 02 avril 2023

    J'ai lu les observations, opinions et pronostics de cet article avec beaucoup d'intérêt. Cela m'a amené à faire quelques recherches simples, que je pensais à la portée d'un outil de recherche et rédaction tel que ChatGPT.
    Grosso modo, je suis déçu par les informations et commentaires fournis par la machine. En tapant "résumé de la carrière de Guido Fanconi", j'ai d'abord appris que ChatGPT ne connaissait pas l'un des pères de la pédiatrie moderne..., il n'avait pas consulté Wikipédia ni aucune source ouverte disponible que quelques secondes. Il a fallu une question détaillée incluant une partie de la réponse pour avoir une réaction. Une recherche sur Rober Debré a été plus fructueuse tout de même, utilisable pour étoffer une rubrique dans un article sur la pédiatrie française.
    Une recherche sur le traitement de l'ostéosarcome a donné une information générique et assez floue. Le résumé de l'approche thérapeutique de l'arthrose du genou, maladie un peu plus courante, a été correct mais seulement pour éclairer un patient avant une consultation médicale, ce qui est plutôt positif.
    Pour le moment, l'IA rédactionnelle n'est pas utile pour remplacer les sources "classiques" et nécessite une bonne dose d'esprit critique ; il peut servir de complément d'information, et est d'une rapidité incroyable. J'y vois une aide à la pratique mais en aucun cas une possibilité de remplacement de qui que ce soit ni d'aucune source de données, du moins à ce stade. Je n'ai pas testé la création de formulaires ou de lettres-types ; les générer par des machines épargnerait beaucoup de travail inutile et permettrait de se concentrer sur des tâches plus "humaines".
    On attend les développements avec intérêt...

    Dr J-F Babel

  • Oui mais...

    Le 02 avril 2023

    "C’est le sens du message d’un collectif de médecins (dont le chirurgien Guy Valancien ou l’interne en santé publique, Gaetan Casanova) et de spécialistes du digital qui dans une tribune des Echos commentent les enseignements précieux de la concomitance de deux évènements récents : les discussions conventionnelles et l’explosion de ChatGPT".
    Dans leur tribune, quelque chose m'embête... Après plusieurs semaines de tests, il se trouve que Chat GPT se trompe tout de même pas si rarement. Et malgré les améliorations, ce n'est pas demain qu'il sera capable de se mettre à jour avec les dernières recommandations/nouveautés en médecine.
    Envisager un remplacement du médecin me semble bizarre dans ce contexte.
    Je vois plus cet outil comme un "interne de bon niveau / une compilation de livres / un outil de réflexion" avec lequel échanger pour affiner une hypothèse diagnostique.
    Et le gros problème si on le met dans les mains de "non médecins", c'est qu'ils ne sauront pas du tout quand chatGPT se trompera...
    Bref, on y est pas encore =)

    Dr A Pearson

  • Non, ChatGPT ne donne aucune information utile

    Le 03 avril 2023

    ChatGPT restitue les données les plus basiques et les plus populaires de ce qu'on peut trouver sur internet, sans rien détailler ni sourcer (contrairement à Perplexity), sans sélectionner les seules sources spécialisées et fiables qui sont vraiment spécifiques de la requête.
    Ce que fait remarquablement ChatGPT (c'est même sidérant) est la mise forme d'un résumé de banalités dans une langue parfaite avec une organisation aussi logique que concise - toutes qualités totalement défectueuses dans les rédactions humaines.
    Ainsi il s'agit d'un outil très utile pour préparer un projet rédactionnel dans n'importe quelle langue, en donnant une structure argumentaire et quelques formulations bien écrites à partir de quoi travailler.
    L'avenir est cependant à tout autre chose. Une base de données très spécialisée dans chaque domaine médical, activement entretenue et actualisée, mais qui reste à constituer, permettra à l'avenir d'obtenir immédiatement une réponse approfondie et validée à des interrogations cliniques formulées avec précision (avec une interface spécialement conçue à cette usage).
    Cela ne remplacera aucun médecin, mais augmentera considérablement l'efficacité des soignants.

    Dr Pierre Rimbaud

Voir toutes les réactions (10)

Réagir à cet article