ChatGPT m’a tué ?

Paris, le samedi 1er avril 2023 – ChatGPT (Generative Pretrained Transformer) a gagné ses lettres de noblesse. Sur Twitter, les discussions autour de l’élaboration de ce logiciel qui fait couler beaucoup d’encre sont presque aussi prolixes que celles concernant l’origine de SARS-Cov-2 et quand les esprits s’échauffent les théories les plus inattendues sont une nouvelle fois testées. Ainsi quelques internautes ont suggéré que les docteurs Jérôme Marty (président de l’Union française pour une médecine libre, très actif pour dénoncer sur Twitter les colporteurs de fausses nouvelles) et le Dr Matthias Wargon (urgentiste et qui partage la même pugnacité) pourraient être les inventeurs de ChatGTP… alors qu’en dépit de leurs multiples talents, ils n’ont jamais manifesté publiquement d’appétence particulière pour les algorithmes et le machine learning. Réussir à susciter de telles projections chez certains esprits prompts à adhérer aux théories complotistes n’est pas le moindre des exploits de ChatGPT.

Une tuerie …et une révolution civilisationnelle

Mais le Dr Wargon ne lui en tient pas rigueur qui après avoir récemment demandé à la plus récente version de ChatGPT de lui rédiger une fiche sur la prise en charge de l’urgence cardiaque pour les médecins et les infirmiers a félicité sur Twitter : « Ça m’a pris moins de 2 minutes et c’est même pas la version 4, ce truc est une tuerie ». Bien sûr, comme le rappelle l’Inserm dans une récente note proposée par son fil Canal Detox, l’utilisation de l’intelligence artificielle (IA) n’est pas complètement une nouveauté. Depuis le fameux Dr Watson d’IBM, un long chemin a été parcouru et l’utilisation de logiciels d’interprétations des examens d’imagerie tend par exemple à se démocratiser. Cependant, la puissance de ChatGPT, symbolisée par sa rapidité et plus encore sa simplicité d’accès, suscite une nouvelle vague de curiosité et d’enthousiasme. Bien sûr il y a les dithyrambiques, parfois sans nuance, tel le Dr Laurent Alexandre qui voit dans chat GPT une révolution civilisationnelle et qui met en garde tous ceux qui minimiseraient l’importance de cette rupture. Il y a dans cette prophétie une forme d’appétence pour la « fin du monde » ou en tout cas un « désir d’événement » (comme aurait pu le dire Jean Baudrillard). Par ailleurs la peur du remplacement de l’homme par la machine est loin d’être une idée neuve. Ce qui est cependant un peu plus inédit est le fait que ce remplacement ne concerne plus seulement la force physique, mais également potentiellement la « force intellectuelle », et donc potentiellement les médecins. 

Un bond pour la qualité de vie au travail

Cependant, une partie d’entre eux, plutôt que de redouter l’arrivée de ChatGPT, en espèrent déjà les bénéfices, pour leur travail quotidien, non directement clinique. C’est le Dr Wargon par exemple qui relève la supériorité des performances de ChatGPT par rapport aux logiciels métiers classiques. De la même manière, à l’occasion d’une conférence organisée par le club digital en santé, il a été souligné combien les IA conversationnelles pouvaient améliorer la qualité de vie au travail, en « réduisant la charge mentale de recherche des connaissances », diminuant « les tâches de saisie des données fastidieuses » ou encore en facilitant la « transcription automatique des notes des professionnels ». Parallèlement, les performances médicales et diagnostiques de l’outil sont vantées. Le Dr Clarisse Audigier-Valette (chef de pôle au Centre hospitalier de Toulon en oncologie) lance ainsi sur un ton badin : « Chers confrères, je vous présente mon nouvel interne #Chat GPT. Je pense qu’on va bientôt disparaître de la planète » prophétise-t-elle en présentant les résultats obtenus après avoir demandé au logiciel de lui écrire une « observation d’entrée à partir du dossier des Urgences » de quelques patients (anonymisés). Disparaître, voilà qui ne terrorise guerre le médecin auteur du compte MnM qui commente : « L’objectif de l'humanité est de pouvoir subvenir à ses besoins primitifs sans bosser. C'est le sens de l'histoire depuis la sédentarisation et l'élevage il y a 5k années. Et c'est une bonne chose que tous les emplois disparaissent et qu'on ne fasse que ce qui nous passionne ». Moins philosophe mais tout aussi séduit, le compte Biohospitalix (très pédagogique concernant l’épidémie de Covid) observe aussi : « Bon je viens de me payer ChatGPT4 pour voir un mois (20$). Je lui ai donné un bilan bio (insuffisance rénale, ndlr) à interpréter pour voir. Je peux aller me coucher. Il est bon, très bon ». Tous, néanmoins, ne partagent pas cette ferveur et cet optimiste. Alors que Biohospitalix a proposé à sa communauté de défier ChatGPT, certains se montrent dubitatifs sur les réponses de l’intelligence artificielle. Le Dr Thibaut Jacques radiologue (spécialité « menacée » s’il en est par ChatGPT) analyse en lisant la copie du logiciel à la question « Comment peut-on différencier un Modic 1 et une spondylodiscite sur une séquence T2 DIXON ? » : « Il y a du juste et du moins juste… et il dit qu’il faut quand même demander à un radiologue ». Plus sévère, l’anesthésiste « Marchand de sommeil » tranche en lisant la réponse à la question : « Quel type d'anesthésie faut-il faire pour un patient avec un rétrécissement aortique symptomatique qui a une fracture du col du fémur ? » : « Au milieu des formules creuses pas mal de bêtises. Je suis rassuré » et n’est pas plus convaincu en lisant la version de ChatGPT 4 : « C’est imprécis », assène-t-il.

Démêler le vrai de l’IA

Ces praticiens réticents font écho à l’analyse prudente de l’INSERM qui remarquait : « Dans les sciences biomédicales, l’IA est depuis plusieurs années considérée comme une méthode prometteuse, pouvant potentiellement bénéficier au patient. Parmi les innovations attendues : l’optimisation de la prise en charge du patient, l’amélioration du diagnostic des maladies, la prédiction de l’état de santé futur du patient et la personnalisation de son suivi. En radiologie et en oncologie par exemple, des financements massifs ont déjà été alloués à des équipes de recherche travaillant sur le sujet. Cependant, la réalité du terrain est plus nuancée. De nombreux systèmes d’IA développés ces dernières années se sont en fait avérés plutôt décevants. Parmi les exemples les plus connus, on peut citer celui de l’IA IBM Watson Health. Ce système a été conçu pour guider la pratique des médecins, afin de les aider à améliorer les soins et de proposer les traitements les plus adaptés aux patients, notamment en oncologie. Toutefois, pour développer et entraîner l’IA, des données jugées de mauvaises qualités ainsi que des populations non représentatives auraient été sélectionnées, et une méthodologie inadéquate aurait été utilisée. Les modèles finaux présentaient des performances faibles susceptibles d’entraîner des erreurs médicales si les professionnels de santé avaient suivi les recommandations de l’IA à la lettre. D’autres études ont montré que l’intelligence artificielle pouvait être utilisée en clinique pour prédire le risque de maladie cardiovasculaire ou encore le devenir de patients atteints de certains cancers. Cependant, la fiabilité des résultats variait grandement en fonction de la qualité des données utilisées pour alimenter les systèmes d’IA. Ces cas illustrent un paradoxe que de nombreux chercheurs tentent de mettre en avant depuis plusieurs années. En théorie, l’IA est censée être plus efficace pour développer un modèle diagnostique ou pronostique, par rapport aux méthodes traditionnellement utilisées en médecine, car elle est capable d’intégrer une plus grande quantité de données et de paramètres. Néanmoins, dans les faits, elle ne fait pas toujours mieux ». Par ailleurs, l’INSERM met en garde contre les risques associés à l’IA, et notamment celui de diffusion de fausses informations, d’autant plus que les humains (et l’IA elle-même) se montrent assez peu performants quand il s’agit de détecter ce qui a été rédigé par un homme ou par un robot.

ChatGPT explose et les médecins défendent leur monopole 

Cependant, compte tenu notamment de la rapidité des améliorations de l’IA (comme l’ont montré les progrès de ChatGPT entre ses versions 3,4 et 5) et du fait que ses limites et défauts ne sont finalement qu’un reflet de nos propres limites, on ne peut faire l’économie d’une véritable réflexion sur les changements que devrait faire naître le logiciel. C’est le sens du message d’un collectif de médecins (dont le chirurgien Guy Valancien ou l’interne en santé publique, Gaetan Casanova) et de spécialistes du digital qui dans une tribune des Echos commentent les enseignements précieux de la concomitance de deux évènements récents : les discussions conventionnelles et l’explosion de ChatGPT. « Il est des moments où l'on observe des collisions dans l'actualité qui portent à croire que l'Histoire s'écrit sous nos yeux. C'est le cas en santé, où nous assistons à l'émergence d'une innovation bouleversant la pratique médicale, et où dans le même temps, les leaders de certains syndicats de médecins militent pour conserver des acquis d'un temps révolu. En février 2016, alors que les taxis manifestaient dans Paris pour réclamer l'interdiction d'Uber en France, Volvo réalisait ses premiers tests de véhicules autonomes sur le rond-point de l'Etoile. En février 2023, pendant que les médecins refusent l'accord conventionnel, Chat GPT venait de réussir un examen américain de médecine . Le parallèle entre ces deux événements est troublant. Si la question du remplacement total du médecin par des IA prometteuses n'est pas d'actualité, celle de son évolution se pose. A une époque où des logiciels conversationnels peuvent répondre à de nombreuses questions médicales pointues et poser un diagnostic en quelques minutes, quelle sera la valeur ajoutée d'une médecine de ville, dont les revendications de ses représentants concernent exclusivement le tarif de la consultation et le refus des coopérations avec d'autres professions médicales ? Nous pensons qu'elle résidera dans sa capacité à animer un réseau de compétences médicales diverses et intégrées, dédié au soin et à la prévention. A ce titre, le projet de loi portée par la députée Rist (prévoyant l'accès direct à certains paramédicaux comme les kinés et les infirmiers en pratique avancée, en élargissant leurs responsabilités)constitue une réelle avancée dans l'accès aux soins sur un territoire.Alors que certains syndicats y voient la dilution du pouvoir quasi démiurgique du médecin, force est de constater que ce partage des tâches constitue l'avenir de la médecine. (…) La médecine traditionnelle est fortement concurrencée par les promoteurs d'une médecine dite « complémentaire » dans l'esprit de patients toujours plus sensibles à leurs promesses d'offrir une écoute ayant trop souvent disparu de la pratique « à l'acte ». Elle sera également bientôt concurrencée par les IA conversationnelles sur le diagnostic. Tant que l'Assurance maladie et les syndicats n'accepteront pas de changer de logiciel dans leurs négociations conventionnelles, ils ne répondront en rien à ces défis » concluent les auteurs.

Quelle spécialité pourrait-être « épargnée » ?

Et le lien avec le patient dans tout ça ? Pour le docteur Benchimol Yéhouda sur le site Doctinet, il est évident qu’il ne pourra être pris en charge par ce type de dispositif. « La technologie du chat GPT changera très probablement le modèle actuel des moteurs de recherche tel que Google. Une IA pourra peut-être vous fournir une information diagnostique plus ou moins précise, mais ne remplacera probablement jamais véritablement le vrai diagnostic médical ainsi que l’empathie et le soin apportés par un professionnel de santé » écrivait-il en janvier. D’ailleurs, ChatGPT pourrait même être l’origine de certains troubles : le neurologue qui écrit derrière le pseudo Qffwffq a ainsi récemment décrit le cas d’une patiente, traductrice douée, fortement affectée par « l’angoisse réelle et très concrète de perdre son job à cause de l’IA », profil auquel il ne pensait pas être confronté si tôt. Est-ce à dire que les psychiatres compteront parmi les spécialités qui seront les moins perturbées par l’IA ? Pas si sûr : il existe de nombreuses IA conversationnelles qui se piquent de soulager les solitudes et les anxiétés. Cependant, les patients se montrent souvent réticents vis-à-vis de ces dernières.

Le journaliste Pierre Luchon met ainsi en lumière dans un récent article publié sur Agora Vox : « Dans un sondage du Pew Resarch Center, publié par CNN Health, 60 % des Américains s’estiment gênés à l’idée que leur médecin s’appuie sur de l’intelligence artificielle. En particulier pour délivrer un diagnostic ou prescrire des médicaments. 57 % considèrent que cela pourrait altérer leur relation avec le personnel médical en question. 60 % ne souhaiteraient pas que leur opération chirurgicale soit conduite par un robot. Ils sont encore moins d’accord (à 79 %) pour qu’un chabot se mêle de leur suivi psychologique ». Derrière ces résultats, il y a sans doute une part importante d’ignorance que ce type d’outil est déjà fréquemment utilisé en médecine.

Banalité du mal

Voilà qui confirme bien l’importance de penser les enjeux éthiques de l’IA, comme nous y exhorte la chercheuse Laurence Devillers (Laboratoire interdisciplinaire des sciences du numérique, LISN/CNRS) qui concluait une récente tribune dans le Monde par cette boutade : « être les cobayes de ChatGPT doit nous amener à prendre collectivement conscience des enjeux éthiques de l’IA ! ». Cependant, certains semblent considérer que tout effort de régulation pourrait être vain puisque ChatGPT pourrait n’être qu’une nouvelle émanation de la « banalité du mal » (théorisée par Hannah Arendt). Telle est notamment la théorie du célèbre linguiste américain Noam Chomsky qui l’exprimait ce mois-ci dans les colonnes du New York Times. Sa pensée est décryptée dans un article de Philosophie Magazine par Martin Legros : « Notre intelligence ne se contente pas définir ce qui est ou ce qui pourrait être ; elle cherche à établir ce qui doit être. Cette approche a une portée éthique évidente. Car la morale consiste à “limiter la créativité autrement illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui doit être et ce qui ne doit pas être (et bien sûr soumettre ces principes eux-mêmes à une critique créative)”. À l’inverse, comme en attestent les réponses produites par ChatGPT aux questions éthiques qu’on lui pose, et qui se réduisent à une recension des différentes positions humaines, l’IA trahit une “indifférence morale”. Et Chomsky de conclure : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ? ». Comment la médecine pourra-t-elle se positionner face à ces enjeux ? Seul l’avenir (et peut-être ChatGPT) nous le dira.

On relira de façon intelligente ou pas :

Le fil de Matthias Wargon : https://twitter.com/wargonm/status/1637183472866324482

La note de l’INSERM : https://presse.inserm.fr/canal-detox/chatgpt-lia-prete-a-remplacer-les-chercheurs-et-les-medecins-vraiment/

Laurent Alexandre : https://twitter.com/search?q=Laurent%20Alexandre&src=typed_query

Le club digital en santé : https://club-digital-sante.info/replay-rencontre-irl-online-chatgpt-bientot-medecin/

Clarisse Audigier-Valette : https://twitter.com/CAudigierValett

MnM : https://twitter.com/DrMnM200

Biohospitalix : https://twitter.com/BioHospitalix/status/1636804691785809938

Thibaut Jacques : https://twitter.com/ThibautJacques

Marchand de sommeil : https://twitter.com/bentatoo31

Collectif de médecins : https://www.lesechos.fr/idees-debats/cercle/opinion-convention-medicale-attention-aux-combats-darriere-garde-1917123

Benchimol Yéhouda : https://www.doctinet.fr/chat-gpt-progres-ou-nouveau-risque-dans-la-relation-medecin-patient

Qffwffq : https://twitter.com/qffwffq?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor

Pierre Luchon : https://www.agoravox.fr/tribune-libre/article/intelligence-artificielle-ai-et-247244

Laurence Devillers : https://www.lemonde.fr/idees/article/2023/01/20/chatgpt-saluer-l-avancee-technologique-mais-comprendre-les-limites-de-ce-type-de-systeme_6158602_3232.html

Noam Chomssky : Opinion | Noam Chomsky: The False Promise of ChatGPT - The New York Times (nytimes.com)

Martin Legros : https://www.philomag.com/articles/chatgpt-chomsky-et-la-banalite-du-mal

Aurélie Haroche

Copyright © http://www.jim.fr

Réagir

Vos réactions (10)

  • Les limites de l'IA en pratique médicale

    Le 02 avril 2023

    J'ai lu les observations, opinions et pronostics de cet article avec beaucoup d'intérêt. Cela m'a amené à faire quelques recherches simples, que je pensais à la portée d'un outil de recherche et rédaction tel que ChatGPT.
    Grosso modo, je suis déçu par les informations et commentaires fournis par la machine. En tapant "résumé de la carrière de Guido Fanconi", j'ai d'abord appris que ChatGPT ne connaissait pas l'un des pères de la pédiatrie moderne..., il n'avait pas consulté Wikipédia ni aucune source ouverte disponible que quelques secondes. Il a fallu une question détaillée incluant une partie de la réponse pour avoir une réaction. Une recherche sur Rober Debré a été plus fructueuse tout de même, utilisable pour étoffer une rubrique dans un article sur la pédiatrie française.
    Une recherche sur le traitement de l'ostéosarcome a donné une information générique et assez floue. Le résumé de l'approche thérapeutique de l'arthrose du genou, maladie un peu plus courante, a été correct mais seulement pour éclairer un patient avant une consultation médicale, ce qui est plutôt positif.
    Pour le moment, l'IA rédactionnelle n'est pas utile pour remplacer les sources "classiques" et nécessite une bonne dose d'esprit critique ; il peut servir de complément d'information, et est d'une rapidité incroyable. J'y vois une aide à la pratique mais en aucun cas une possibilité de remplacement de qui que ce soit ni d'aucune source de données, du moins à ce stade. Je n'ai pas testé la création de formulaires ou de lettres-types ; les générer par des machines épargnerait beaucoup de travail inutile et permettrait de se concentrer sur des tâches plus "humaines".
    On attend les développements avec intérêt...

    Dr J-F Babel

  • Oui mais...

    Le 02 avril 2023

    "C’est le sens du message d’un collectif de médecins (dont le chirurgien Guy Valancien ou l’interne en santé publique, Gaetan Casanova) et de spécialistes du digital qui dans une tribune des Echos commentent les enseignements précieux de la concomitance de deux évènements récents : les discussions conventionnelles et l’explosion de ChatGPT".
    Dans leur tribune, quelque chose m'embête... Après plusieurs semaines de tests, il se trouve que Chat GPT se trompe tout de même pas si rarement. Et malgré les améliorations, ce n'est pas demain qu'il sera capable de se mettre à jour avec les dernières recommandations/nouveautés en médecine.
    Envisager un remplacement du médecin me semble bizarre dans ce contexte.
    Je vois plus cet outil comme un "interne de bon niveau / une compilation de livres / un outil de réflexion" avec lequel échanger pour affiner une hypothèse diagnostique.
    Et le gros problème si on le met dans les mains de "non médecins", c'est qu'ils ne sauront pas du tout quand chatGPT se trompera...
    Bref, on y est pas encore =)

    Dr A Pearson

  • Non, ChatGPT ne donne aucune information utile

    Le 03 avril 2023

    ChatGPT restitue les données les plus basiques et les plus populaires de ce qu'on peut trouver sur internet, sans rien détailler ni sourcer (contrairement à Perplexity), sans sélectionner les seules sources spécialisées et fiables qui sont vraiment spécifiques de la requête.
    Ce que fait remarquablement ChatGPT (c'est même sidérant) est la mise forme d'un résumé de banalités dans une langue parfaite avec une organisation aussi logique que concise - toutes qualités totalement défectueuses dans les rédactions humaines.
    Ainsi il s'agit d'un outil très utile pour préparer un projet rédactionnel dans n'importe quelle langue, en donnant une structure argumentaire et quelques formulations bien écrites à partir de quoi travailler.
    L'avenir est cependant à tout autre chose. Une base de données très spécialisée dans chaque domaine médical, activement entretenue et actualisée, mais qui reste à constituer, permettra à l'avenir d'obtenir immédiatement une réponse approfondie et validée à des interrogations cliniques formulées avec précision (avec une interface spécialement conçue à cette usage).
    Cela ne remplacera aucun médecin, mais augmentera considérablement l'efficacité des soignants.

    Dr Pierre Rimbaud

  • Une (capitale) remarque complémentaire

    Le 03 avril 2023

    Quand ChatGPT (comme tout autre "bot") délivre une sottise dans sa réponse, c'est qu'il l'a dégottée parmi les données que lui ont fournies les humains. Cette machine n'est pas faillible, mais l'homme l'est sévèrement. Le danger n'est pas dans l'intelligence artificielle, mais évidemment dans la bêtise naturelle qui la nourrit.
    Prêter la moindre capacité conceptuelle à l'outil est une stupidité de plus de la part d'humains dont un trait constant est de se laisser abuser par les apparences. Cependant, cet outil amplifie tellement les erreurs dont on le gave, et les rend tellement crédibles, qu'il fait assurément courir un risque accru aux esprits faibles.
    Voyons toutefois les choses du bon côté : ChatGPT et autres "bots" sont de puissants révélateurs de nos faiblesses cognitives et des inepties que nous laissons circuler.

    Dr Pierre Rimbaud

  • Quelques questions

    Le 08 avril 2023

    L'information est le rapport d'événement hors du commun.
    La banalité, le bon sens (sauf à titre pédagogique) et l'insignifiant ne se publient pas.
    Est-ce que l'IA sait pondérer la qualité et la relativité contextuelle d'une information ? Oui, selon elle sans préciser qui est alors le contrôleur.
    Ainsi les antivax (sans préjuger de la qualité de leurs arguments) l'emportent en nombre et en force (pour convaincre).
    Un essai d'IA il y a encore peu, a été stoppé car la prépondérance des trolls l'avait orienté politiquement.
    De plus, parler d'une chose la fait exister (sans préjuger de sa valeur), la met en avant et trouve ainsi des adeptes comme la fameuse triade de Saint qui n'existe que par habitude (surtout chez ceux qui l'ont "rencontrée")
    Un effet secondaire rarissime ou mal documenté entache définitivement une réputation. L'IA ne semble pas gérer les sentiments comme la peur ou le désir (sa froide "neutralité" fait penser à certains qu'elle pourrait faire de la psychanalyse)
    Le vraisemblable n'est pas toujours vrai.
    Quelque soit la puissance d'une IA c'est un humain qui recueille et entre les données et un vieux proverbe informatique dit "garbage in, garbage out" et comme rien n'est perdu!
    Ceci dit je suis ébahi de la puissance de cette IA (mais je ne l'utilise que pour mon jardin)

    Dr R. Chevalot

  • IA et médecine

    Le 09 avril 2023

    L’IA collige, elle ne crée pas. Elle saura donner une probabilité diagnostique à partir de signes et syndromes de pathologies bien décrites, mais elle ne saura pas répondre que ces signes correspondent à une nouvelle pathologie pas encore découverte. Elle facilite le diagnostique mais ne permet pas de progresser. Elle sera merveilleuse pour réciter un protocole, mais n’en proposera pas un meilleur.
    Dr A. Fourmaintraux

  • Chat GPT, politique!

    Le 10 avril 2023

    Merci pour cet article et les commentaires,; un autre terrain à prospecter pour l'IA : les politiques et les syndicats ? !
    Dr X. Bareau

  • Bluffant

    Le 11 avril 2023

    Chat GPT recense ce qui est le plus courant concernant un sujet donné et le résultat est assez étonnant. A titre d'exemple, en énumérant quelques signes cliniques, on peut lire quelques propositions diagnostiques pertinentes auxquelles on n'a peut-être pas pensé. Restons modestes. En revanche, quand on fouille un sujet assez spécialisé, il devient beaucoup plus flou et peut même faire état de ses limites. Si l'on recherche aussi quelques effets secondaires d'un médicament, il peut aussi pris en défaut surtout si cela a été décrit en français. Chat GPT ne peut pas non plus remplacer PubMED. En définitive, pour ce qui est de la médecine, ChatGPG est intéressant si interprété par un médecin. Si des erreurs, des flous ou des omissions sont détectés en médecine, cela incite évidemment à être prudent dans ce qui est rapporté dans des domaines qui nous sont étrangers.
    Dr Bouteiller

  • Vous reprendrez bien un peu de daube

    Le 17 avril 2023

    On le dit trop peu, mais à l'heure actuelle ChatGPT commet facilement des erreurs factuelles grossières. J'ai par exemple été surpris d'appendre de la bouche de ChatGPT que les chansons "Nathalie" et "L'important c'est la rose" du regretté Gilbert Bécaud ont pour sujet... l'Egypte. Et que les équations algébriques de degré cinq sont résolubles par radicaux.

    Il serait plus que dangereux de se laisser séduire par les sirènes de l'intelligence artificielle et leur apparence de culture omnisciente, la fiabilité est à ce jour nettement insuffisante. Confier aveuglément un diagnostic médical sans vérification sérieuse serait parfaitement criminel.

    Dr Y. Daoust

  • Chat GPT, un référendum populaire ?

    Le 18 avril 2023

    Je n'ai jamais expérimenté ce fameux chat GPT et je remercie donc l'auteur de ce bel article de m'en ouvrir toutes les nuances. Je fais souvent des recherches sur internet pour retrouver des publications. Il faut faire le tri, c'est certain. Je partage donc assez l'avis du Dr Rimbaud : "ChatGPT et autres "bots" sont de puissants révélateurs de nos faiblesses cognitives et des inepties que nous laissons circuler."

    Par contre si l'outil est si bon et que les données sont bien triées, je pense que le Dr Vallancien se trompe quand il observe "des collisions dans l'actualité qui portent à croire que l'Histoire s'écrit sous nos yeux. C'est le cas en santé, où nous assistons à l'émergence d'une innovation bouleversant la pratique médicale, et où dans le même temps, les leaders de certains syndicats de médecins militent pour conserver des acquis d'un temps révolu.". Il se trompe car on aura toujours besoin des petites mains de la médecine, les acteurs de santé du quotidien au contact des malades pour interroger, palper, examiner et inscrire ces données. L'outil ChatGPT, bien renseigné, pourra alors analyser et donner un avis d'expert. Plus besoin de l'expert qui est d'ailleurs celui qui coûte le plus cher.

    On peut ainsi imaginer de vérifier la validité d'une stratégie, d'une décision, ou d'une réforme sans passer par un comité ou un référendum. Que d'économies, que de tranquillité !

    Je demande à Chat GPT de vérifier tout ce qui encombre les réseaux et les rues en polémiques plus ou moins stériles et plus ou moins violentes, par exemple (liste non limitative) : fallait-il confiner ou non lors de la pandémie Covid ? Les vaccins à ARNm sont-ils utiles contre la Covid ? Faut-il réintégrer les soignants ayant refusé de se faire vacciner (si bien sûr la réponse précédente est oui) ? Faut-il travailler plus longtemps pour équilibrer le régime des retraites français ? Faut-il abattre le capitalisme ? Le communisme rend-il heureux ? Qui sommes nous et où allons nous ?

    Dr D. Boutry

Réagir à cet article

Les réactions sont réservées aux professionnels de santé inscrits et identifiés sur le site.
Elles ne seront publiées sur le site qu’après modération par la rédaction (avec un délai de quelques heures à 48 heures). Sauf exception, les réactions sont publiées avec la signature de leur auteur.


Lorsque cela est nécessaire et possible, les réactions doivent être référencées (notamment si les données ou les affirmations présentées ne proviennent pas de l’expérience de l’auteur).

JIM se réserve le droit de ne pas mettre en ligne une réaction, en particulier si il juge qu’elle présente un caractère injurieux, diffamatoire ou discriminatoire ou qu’elle peut porter atteinte à l’image du site.