Bientôt un psychiatre nommé Alexa…

Alors que le poids des troubles mentaux va croissant, 45 % de la population mondiale vit pourtant, selon l’OMS, « dans des pays avec moins d’un psychiatre pour 100 000 habitants ! » Aussi cherche-t-on des solutions, face à cette pénurie. Soit des alternatives humaines, en confiant les patients à d’autres professionnels exerçant des métiers proches : médecins omnipraticiens, psychologues… Soit des alternatives technologiques, fleurant bon la science-fiction : avatars de médecins, logiciels dédiés… Ces méthodes encore (mais de moins en moins) futuristes commencent notamment à intéresser des établissements pour personnes âgées où l’essor des « robots parleurs » est censé répondre au manque chronique de personnel pour stimuler les résidents.

Encore désignés par le néologisme « chatbots »[1], (croisement de « chat » –au sens de dialogue sur Internet– et « robot »), ou par une autre appellation explicite (agents conversationnels, dialogueurs, assistants vocaux), ces outils innovants (ou iconoclastes, selon le point de vue !) ne se bornent d’ailleurs pas à jouer ce rôle de « vicaires » (au sens de suppléant) d’un personnel médical ou paramédical évanescent. Comme le montre le succès croissant de l’assistante vocale Alexa[2] d’Amazon ou celui du chatbot Siri[3] d’Apple, leur champ d’application concerne sans doute, à terme, tous les domaines de la communication et de l’interface homme/machine.

Bénéfice potentiel des agents conversationnels

À travers 8 études satisfaisant à des critères d’inclusion (portant sur le recours à un chatbot en milieu psychiatrique), The Canadian Journal of Psychiatry propose un éditorial et une revue systématique de la littérature médicale sur ce thème d’avant-garde. Ces travaux suggèrent « le potentiel bénéfique des agents conversationnels », susceptibles de « constituer un outil efficace et agréable » dans l’approche thérapeutique en psychiatrie. Toutefois, malgré ces données préliminaires encourageantes, « l’hétérogénéité des études examinées » incite les auteurs à souhaiter « plus de recherche normalisée » pour mieux évaluer l’efficacité clinique de ces robots parleurs.

Premier champion du monde des échecs battu par un programme informatique (Deep Blue d’IBM, en 1997), Gary Kasparov déclara : « le jeu d’échecs est vulnérable aux ordinateurs très puissants dotés d’algorithmes suffisants, de bases de données volumineuses et de processeurs à très grande vitesse. » Alors que les enjeux pour les patients sont « bien plus importants que pour une partie d’échecs », les auteurs posent la question : « la maladie mentale serait-elle aussi sensible à l’intervention de tels ordinateurs très puissants ? »

[1] https://fr.wikipedia.org/wiki/Chatbot
[2] https://fr.wikipedia.org/wiki/Amazon_Alexa

 

Dr Alain Cohen

Références
Gratzer D et coll.: Open for business: chatbots, e-therapies and the future of psychiatry. Canadian J. Psy; 2019; 64(7): 453–455.
Aditya Nrusimha Vaidyam et coll.: Chatbots and conversational agents in mental health: a review of the psychiatric landscape. Canadian J Psy; 2019; 64(7): 456–464.

Copyright © http://www.jim.fr

Réagir

Vos réactions (5)

  • Un outil efficace et agréable...

    Le 31 juillet 2019

    Ben voyons !
    Psychiatre des Hôpitaux en fin de carrière, par ailleurs très intéressé par l'informatique et toutes ces questions autour de l'intelligence artificielle, joueur d'échecs aussi dans mon jeune temps avec une certaine performance, je ne comprends pas comment une IA pourrait être soignante. Mais je dois être un vieux con, déjà. "Agréable" ? Meuh non, l'approche psychothérapique ne doit pas être agréable, bien au contraire doit bousculer pour déclencher l'élaboration. Sinon, autant faire du coaching...

    Dr Jean-Pascal Medurio

  • 1984

    Le 02 août 2019

    Une avancée sérieuse vers 1984 de Georges Orwell et Le meilleur des mondes de A. Huxley.
    D'autant plus intéressant que nombre de prétendants potentiels n'ont pas accès à l'internet ou sont détraqués à cause de lui.

    Dr Jean-Claude Valery

  • Agréable ! On n’en doute pas...

    Le 03 août 2019

    Et la déshumanisation se poursuit à la vitesse de la lumière lors de ces dix dernières années. Quid de l’empathie, de la confiance, de l’attention et de l’écoute ? Je n’ose plus parler de discours et de structure.
    Peut-être que dans ces pays ils feront mieux d’aller voir le chaman ou le sorcier. L’OMS devrait lire «l’Oedipe Africain » et cesser d’appliquer les critères occidentaux au monde entier.

    Dr Jacques Weiss, Psychiatre libéral

  • Combler un manque de présence humaine ?

    Le 05 août 2019

    Je ne pense pas que ces engins visent à remplacer une interaction psychothérapeutique, ce serait effectivement idiot à mon sens, mais si ceux ci permettent de pallier,certains moments dans la journée, les longues heures de solitude et de desoeuvrement, qui rendraient déprimés même ceux qui ne le sont pas :), et qui rajoutent de la souffrance à celle déjà vécue issue de la pathologie dans les structures psy ou même qui annulent les bienfaits des quelques échanges vécus avec des humains...et bien c'est peut être bienfaisant …

    Simone Milesi

  • On sait comment fonctionnent les Echecs ! On ignore à 99% comment fonctionne un schizophrène

    Le 13 août 2019

    Robot psy: Un Concept parfaitement "Moderne" (moderne comme synonyme de "Idiot"!
    Comment "mettre en algorithmes ce qu'on ignore quasi complètement et qui, sauf trois médicaments trouvés par hasard et dont on ignore comment ils fonctionnent au plus fin: Que Parlent et Disent Les Synapses?) et est réduit justement au "Relationnel"?

    Psychiatre - Expert pénal- criminologue, Retraité- 79 ans (et avec encore trois neurones qui marchent!)

Réagir à cet article

Les réactions sont réservées aux professionnels de santé inscrits et identifiés sur le site.
Elles ne seront publiées sur le site qu’après modération par la rédaction (avec un délai de quelques heures à 48 heures). Sauf exception, les réactions sont publiées avec la signature de leur auteur.


Lorsque cela est nécessaire et possible, les réactions doivent être référencées (notamment si les données ou les affirmations présentées ne proviennent pas de l’expérience de l’auteur).

JIM se réserve le droit de ne pas mettre en ligne une réaction, en particulier si il juge qu’elle présente un caractère injurieux, diffamatoire ou discriminatoire ou qu’elle peut porter atteinte à l’image du site.