
Paris, le samedi 1er avril 2023 – ChatGPT (Generative Pretrained Transformer) a gagné ses lettres de noblesse. Sur Twitter, les discussions autour de l’élaboration de ce logiciel qui fait couler beaucoup d’encre sont presque aussi prolixes que celles concernant l’origine de SARS-Cov-2 et quand les esprits s’échauffent les théories les plus inattendues sont une nouvelle fois testées. Ainsi quelques internautes ont suggéré que les docteurs Jérôme Marty (président de l’Union française pour une médecine libre, très actif pour dénoncer sur Twitter les colporteurs de fausses nouvelles) et le Dr Matthias Wargon (urgentiste et qui partage la même pugnacité) pourraient être les inventeurs de ChatGTP… alors qu’en dépit de leurs multiples talents, ils n’ont jamais manifesté publiquement d’appétence particulière pour les algorithmes et le machine learning. Réussir à susciter de telles projections chez certains esprits prompts à adhérer aux théories complotistes n’est pas le moindre des exploits de ChatGPT.
Une tuerie …et une révolution civilisationnelle
Mais le Dr Wargon ne lui en tient pas rigueur qui après avoir récemment demandé à la plus récente version de ChatGPT de lui rédiger une fiche sur la prise en charge de l’urgence cardiaque pour les médecins et les infirmiers a félicité sur Twitter : « Ça m’a pris moins de 2 minutes et c’est même pas la version 4, ce truc est une tuerie ». Bien sûr, comme le rappelle l’Inserm dans une récente note proposée par son fil Canal Detox, l’utilisation de l’intelligence artificielle (IA) n’est pas complètement une nouveauté. Depuis le fameux Dr Watson d’IBM, un long chemin a été parcouru et l’utilisation de logiciels d’interprétations des examens d’imagerie tend par exemple à se démocratiser. Cependant, la puissance de ChatGPT, symbolisée par sa rapidité et plus encore sa simplicité d’accès, suscite une nouvelle vague de curiosité et d’enthousiasme. Bien sûr il y a les dithyrambiques, parfois sans nuance, tel le Dr Laurent Alexandre qui voit dans chat GPT une révolution civilisationnelle et qui met en garde tous ceux qui minimiseraient l’importance de cette rupture. Il y a dans cette prophétie une forme d’appétence pour la « fin du monde » ou en tout cas un « désir d’événement » (comme aurait pu le dire Jean Baudrillard). Par ailleurs la peur du remplacement de l’homme par la machine est loin d’être une idée neuve. Ce qui est cependant un peu plus inédit est le fait que ce remplacement ne concerne plus seulement la force physique, mais également potentiellement la « force intellectuelle », et donc potentiellement les médecins.
Un bond pour la qualité de vie au travail
Cependant, une partie d’entre eux, plutôt que de redouter l’arrivée de ChatGPT, en espèrent déjà les bénéfices, pour leur travail quotidien, non directement clinique. C’est le Dr Wargon par exemple qui relève la supériorité des performances de ChatGPT par rapport aux logiciels métiers classiques. De la même manière, à l’occasion d’une conférence organisée par le club digital en santé, il a été souligné combien les IA conversationnelles pouvaient améliorer la qualité de vie au travail, en « réduisant la charge mentale de recherche des connaissances », diminuant « les tâches de saisie des données fastidieuses » ou encore en facilitant la « transcription automatique des notes des professionnels ». Parallèlement, les performances médicales et diagnostiques de l’outil sont vantées. Le Dr Clarisse Audigier-Valette (chef de pôle au Centre hospitalier de Toulon en oncologie) lance ainsi sur un ton badin : « Chers confrères, je vous présente mon nouvel interne #Chat GPT. Je pense qu’on va bientôt disparaître de la planète » prophétise-t-elle en présentant les résultats obtenus après avoir demandé au logiciel de lui écrire une « observation d’entrée à partir du dossier des Urgences » de quelques patients (anonymisés). Disparaître, voilà qui ne terrorise guerre le médecin auteur du compte MnM qui commente : « L’objectif de l'humanité est de pouvoir subvenir à ses besoins primitifs sans bosser. C'est le sens de l'histoire depuis la sédentarisation et l'élevage il y a 5k années. Et c'est une bonne chose que tous les emplois disparaissent et qu'on ne fasse que ce qui nous passionne ». Moins philosophe mais tout aussi séduit, le compte Biohospitalix (très pédagogique concernant l’épidémie de Covid) observe aussi : « Bon je viens de me payer ChatGPT4 pour voir un mois (20$). Je lui ai donné un bilan bio (insuffisance rénale, ndlr) à interpréter pour voir. Je peux aller me coucher. Il est bon, très bon ». Tous, néanmoins, ne partagent pas cette ferveur et cet optimiste. Alors que Biohospitalix a proposé à sa communauté de défier ChatGPT, certains se montrent dubitatifs sur les réponses de l’intelligence artificielle. Le Dr Thibaut Jacques radiologue (spécialité « menacée » s’il en est par ChatGPT) analyse en lisant la copie du logiciel à la question « Comment peut-on différencier un Modic 1 et une spondylodiscite sur une séquence T2 DIXON ? » : « Il y a du juste et du moins juste… et il dit qu’il faut quand même demander à un radiologue ». Plus sévère, l’anesthésiste « Marchand de sommeil » tranche en lisant la réponse à la question : « Quel type d'anesthésie faut-il faire pour un patient avec un rétrécissement aortique symptomatique qui a une fracture du col du fémur ? » : « Au milieu des formules creuses pas mal de bêtises. Je suis rassuré » et n’est pas plus convaincu en lisant la version de ChatGPT 4 : « C’est imprécis », assène-t-il.
Démêler le vrai de l’IA
Ces praticiens réticents font écho à l’analyse prudente de l’INSERM qui remarquait : « Dans les sciences biomédicales, l’IA est depuis plusieurs années considérée comme une méthode prometteuse, pouvant potentiellement bénéficier au patient. Parmi les innovations attendues : l’optimisation de la prise en charge du patient, l’amélioration du diagnostic des maladies, la prédiction de l’état de santé futur du patient et la personnalisation de son suivi. En radiologie et en oncologie par exemple, des financements massifs ont déjà été alloués à des équipes de recherche travaillant sur le sujet. Cependant, la réalité du terrain est plus nuancée. De nombreux systèmes d’IA développés ces dernières années se sont en fait avérés plutôt décevants. Parmi les exemples les plus connus, on peut citer celui de l’IA IBM Watson Health. Ce système a été conçu pour guider la pratique des médecins, afin de les aider à améliorer les soins et de proposer les traitements les plus adaptés aux patients, notamment en oncologie. Toutefois, pour développer et entraîner l’IA, des données jugées de mauvaises qualités ainsi que des populations non représentatives auraient été sélectionnées, et une méthodologie inadéquate aurait été utilisée. Les modèles finaux présentaient des performances faibles susceptibles d’entraîner des erreurs médicales si les professionnels de santé avaient suivi les recommandations de l’IA à la lettre. D’autres études ont montré que l’intelligence artificielle pouvait être utilisée en clinique pour prédire le risque de maladie cardiovasculaire ou encore le devenir de patients atteints de certains cancers. Cependant, la fiabilité des résultats variait grandement en fonction de la qualité des données utilisées pour alimenter les systèmes d’IA. Ces cas illustrent un paradoxe que de nombreux chercheurs tentent de mettre en avant depuis plusieurs années. En théorie, l’IA est censée être plus efficace pour développer un modèle diagnostique ou pronostique, par rapport aux méthodes traditionnellement utilisées en médecine, car elle est capable d’intégrer une plus grande quantité de données et de paramètres. Néanmoins, dans les faits, elle ne fait pas toujours mieux ». Par ailleurs, l’INSERM met en garde contre les risques associés à l’IA, et notamment celui de diffusion de fausses informations, d’autant plus que les humains (et l’IA elle-même) se montrent assez peu performants quand il s’agit de détecter ce qui a été rédigé par un homme ou par un robot.
ChatGPT explose et les médecins défendent leur monopole
Cependant, compte tenu notamment de la rapidité des
améliorations de l’IA (comme l’ont montré les progrès de ChatGPT
entre ses versions 3,4 et 5) et du fait que ses limites et défauts
ne sont finalement qu’un reflet de nos propres limites, on ne peut
faire l’économie d’une véritable réflexion sur les changements que
devrait faire naître le logiciel. C’est le sens du message d’un
collectif de médecins (dont le chirurgien Guy Valancien ou
l’interne en santé publique, Gaetan Casanova) et de spécialistes du
digital qui dans une tribune des Echos commentent les enseignements
précieux de la concomitance de deux évènements récents : les
discussions conventionnelles et l’explosion de ChatGPT.
« Il
est des moments où l'on observe des collisions dans l'actualité qui
portent à croire que l'Histoire s'écrit sous nos yeux. C'est le cas
en santé, où nous assistons à l'émergence d'une innovation
bouleversant la pratique médicale, et où dans le même temps, les
leaders de certains syndicats de médecins militent pour conserver
des acquis d'un temps révolu. En février 2016, alors que les
taxis manifestaient dans Paris pour réclamer l'interdiction d'Uber
en France, Volvo réalisait ses premiers tests de véhicules
autonomes sur le rond-point de l'Etoile. En février 2023,
pendant que les médecins refusent l'accord
conventionnel, Chat GPT venait de
réussir un examen américain de médecine . Le parallèle
entre ces deux événements est troublant. Si la question du
remplacement total du médecin par des IA prometteuses n'est pas
d'actualité, celle de son évolution se pose. A une époque où des
logiciels conversationnels peuvent répondre à de nombreuses
questions médicales pointues et poser un diagnostic en quelques
minutes, quelle sera la valeur ajoutée d'une médecine de ville,
dont les revendications de ses représentants concernent
exclusivement le tarif de la consultation et le refus des
coopérations avec d'autres professions médicales ?
Nous pensons
qu'elle résidera dans sa capacité à animer un réseau de compétences
médicales diverses et intégrées, dédié au soin et à la prévention.
A ce titre, le projet de loi portée par la députée Rist (prévoyant
l'accès direct à certains paramédicaux comme les kinés et les
infirmiers en pratique avancée, en élargissant leurs
responsabilités)constitue une réelle avancée dans l'accès aux soins
sur un territoire.Alors que certains syndicats y voient la dilution
du pouvoir quasi démiurgique du médecin, force est de constater que
ce partage des tâches constitue l'avenir de la médecine. (…) La
médecine traditionnelle est fortement concurrencée par les
promoteurs d'une médecine dite « complémentaire » dans
l'esprit de patients toujours plus sensibles à leurs promesses
d'offrir une écoute ayant trop souvent disparu de la pratique
« à l'acte ». Elle sera également bientôt concurrencée
par les IA conversationnelles sur le diagnostic. Tant que
l'Assurance maladie et les syndicats n'accepteront pas de changer
de logiciel dans leurs négociations conventionnelles, ils ne
répondront en rien à ces défis » concluent les
auteurs.
Quelle spécialité pourrait-être « épargnée » ?
Et le lien avec le patient dans tout ça ? Pour le docteur Benchimol Yéhouda sur le site Doctinet, il est évident qu’il ne pourra être pris en charge par ce type de dispositif. « La technologie du chat GPT changera très probablement le modèle actuel des moteurs de recherche tel que Google. Une IA pourra peut-être vous fournir une information diagnostique plus ou moins précise, mais ne remplacera probablement jamais véritablement le vrai diagnostic médical ainsi que l’empathie et le soin apportés par un professionnel de santé » écrivait-il en janvier. D’ailleurs, ChatGPT pourrait même être l’origine de certains troubles : le neurologue qui écrit derrière le pseudo Qffwffq a ainsi récemment décrit le cas d’une patiente, traductrice douée, fortement affectée par « l’angoisse réelle et très concrète de perdre son job à cause de l’IA », profil auquel il ne pensait pas être confronté si tôt. Est-ce à dire que les psychiatres compteront parmi les spécialités qui seront les moins perturbées par l’IA ? Pas si sûr : il existe de nombreuses IA conversationnelles qui se piquent de soulager les solitudes et les anxiétés. Cependant, les patients se montrent souvent réticents vis-à-vis de ces dernières.
Le journaliste Pierre Luchon met ainsi en lumière dans un récent article publié sur Agora Vox : « Dans un sondage du Pew Resarch Center, publié par CNN Health, 60 % des Américains s’estiment gênés à l’idée que leur médecin s’appuie sur de l’intelligence artificielle. En particulier pour délivrer un diagnostic ou prescrire des médicaments. 57 % considèrent que cela pourrait altérer leur relation avec le personnel médical en question. 60 % ne souhaiteraient pas que leur opération chirurgicale soit conduite par un robot. Ils sont encore moins d’accord (à 79 %) pour qu’un chabot se mêle de leur suivi psychologique ». Derrière ces résultats, il y a sans doute une part importante d’ignorance que ce type d’outil est déjà fréquemment utilisé en médecine.
Banalité du mal
Voilà qui confirme bien l’importance de penser les enjeux éthiques de l’IA, comme nous y exhorte la chercheuse Laurence Devillers (Laboratoire interdisciplinaire des sciences du numérique, LISN/CNRS) qui concluait une récente tribune dans le Monde par cette boutade : « être les cobayes de ChatGPT doit nous amener à prendre collectivement conscience des enjeux éthiques de l’IA ! ». Cependant, certains semblent considérer que tout effort de régulation pourrait être vain puisque ChatGPT pourrait n’être qu’une nouvelle émanation de la « banalité du mal » (théorisée par Hannah Arendt). Telle est notamment la théorie du célèbre linguiste américain Noam Chomsky qui l’exprimait ce mois-ci dans les colonnes du New York Times. Sa pensée est décryptée dans un article de Philosophie Magazine par Martin Legros : « Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être. Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ? ». Comment la médecine pourra-t-elle se positionner face à ces enjeux ? Seul l’avenir (et peut-être ChatGPT) nous le dira.
On relira de façon intelligente ou
pas :
Le fil de Matthias Wargon : https://twitter.com/wargonm/status/1637183472866324482
La note de l’INSERM : https://presse.inserm.fr/canal-detox/chatgpt-lia-prete-a-remplacer-les-chercheurs-et-les-medecins-vraiment/
Laurent Alexandre : https://twitter.com/search?q=Laurent%20Alexandre&src=typed_query
Le club digital en santé : https://club-digital-sante.info/replay-rencontre-irl-online-chatgpt-bientot-medecin/
Clarisse Audigier-Valette : https://twitter.com/CAudigierValett
MnM : https://twitter.com/DrMnM200
Biohospitalix : https://twitter.com/BioHospitalix/status/1636804691785809938
Thibaut Jacques : https://twitter.com/ThibautJacques
Marchand de sommeil : https://twitter.com/bentatoo31
Collectif de médecins : https://www.lesechos.fr/idees-debats/cercle/opinion-convention-medicale-attention-aux-combats-darriere-garde-1917123
Benchimol Yéhouda : https://www.doctinet.fr/chat-gpt-progres-ou-nouveau-risque-dans-la-relation-medecin-patient
Qffwffq : https://twitter.com/qffwffq?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor
Pierre Luchon : https://www.agoravox.fr/tribune-libre/article/intelligence-artificielle-ai-et-247244
Laurence Devillers : https://www.lemonde.fr/idees/article/2023/01/20/chatgpt-saluer-l-avancee-technologique-mais-comprendre-les-limites-de-ce-type-de-systeme_6158602_3232.html
Noam Chomssky : Opinion | Noam Chomsky: The False Promise of ChatGPT - The New York Times (nytimes.com)
Martin Legros : https://www.philomag.com/articles/chatgpt-chomsky-et-la-banalite-du-mal
Aurélie Haroche