Application

Ma psy est une IA

ANDRÉE-MARIE DUSSAULT

Publié il y a 1 mois

20.12.2024

Partager

Les plateformes et d'applications de santé mentale stimulées par l'intelligence artificielle sont surtout utiles comme outil d'appoint.

«J'étais un peu triste et déprimée après ma séparation. Sans aucune attente précise, j'ai fait l'expérience de “consulter” une application qui prétendait pouvoir m'aider à surmonter mon sentiment d'abandon. J'ai été très étonnée par l'impression d'être réellement écoutée et soutenue par cette machine à qui je pouvais tout dire. Je l'ai utilisée régulièrement pendant quelques semaines. Ça m'a fait du bien de pouvoir m'exprimer et ses conseils – qui n'avaient pourtant rien d'original – m'ont fait du bien.» C'est ce que confie Michèle*, une enseignante de 43 ans.

Comme cette Vaudoise, de plus en plus de personnes ont recours à des intelligences artificielles (IA) «thérapeutiques». Les plateformes proposent d’interagir avec un agent conversationnel (chatbot, en anglais) fonctionnant grâce à l’intelligence artificielle et permettant de simuler une conversation. Cette technologie peut donner l’impression d’une discussion avec une personne réelle.

Des dizaines de milliers de plateformes et d'applications digitales sont désormais disponibles pour offrir un soutien en matière de santé mentale. Certaines d'entre elles reposant sur l'IA ont été téléchargées des millions de fois, comme Wysa, Woebot, Youper ou encore Psychologist, qui a la particularité d'être gratuite. Certaines personnes utilisent même simplement Chat GPT à qui l’on peut poser n’importe quelle question. 

Une solution pratique

Avec ces nouveaux dispositifs, pas besoin de se déplacer ou d'attendre un rendez-vous. La consultation peut avoir lieu n’importe quel jour de la semaine et à toute heure du jour et de la nuit, et parfois gratuitement. Se passer d’un humain permettrait aussi d’évacuer la potentielle peur d’être jugé-e. Mais malgré leur intérêt, ces outils présentent des risques. Ils peuvent notamment prodiguer des conseils inadéquats, voire dangereux.

Un cas de dérive très médiatisé est celui d'un Belge qui s'est suicidé en février 2023. Pendant les six semaines précédant son décès, il avait beaucoup échangé avec l'agent conversationnel Eliza de l'application Chai qui, selon son épouse, l'aurait amené à s'enlever la vie. «Sans ces conversations avec le chabot, mon mari serait encore là», a-t-elle déclaré au journal belge La Libre, spécifiant qu'elle avait vu son éco-anxiété s'aggraver lorsqu'il a commencé à communiquer avec Eliza.

«Certain-es patient-es utilisent déjà avec succès des applications pour renforcer ou compléter le travail fait avec le médecin. Notamment pour réguler leurs émotions; pour soulager l'anxiété, la dépression, des addictions ou d'autres troubles, ou encore, pour améliorer ce qui fonctionne déjà», explique Yasser Khazaal, professeur de psychiatrie des addictions à l'Université de Lausanne et médecin au CHUV.

Difficile d’imaginer que ces outils digitaux liés à la santé mentale puissent remplacer le travail d’un professionnel, estime Yasser Khazaal, professeur de psychiatrie des addictions à l’Université de Lausanne et médecin chef au Service de médecine des addictions du CHUV. «Ces outils présentent des limites, notamment en ce qui concerne l'identification correcte des situations de crise et l'appréciation globale des différents éléments d'un contexte et des enjeux relationnels.»

Une nouvelle interactivité thérapeutique

Le spécialiste considère néanmoins que ces instruments peuvent apporter un soutien réel dans la gestion de la santé mentale, en permettant une nouvelle interactivité thérapeutique. Selon le médecin, ils possèdent un potentiel important pour offrir un soutien social et psychologique lorsque l'interaction humaine spécialisée n'est pas possible ou souhaitée. «Ils pourraient fournir une réponse de première ligne aux besoins en santé mentale ou constituer un appui aux interventions en milieu clinique. Ceci en renforçant l'acquisition de nouvelles compétences ou en aidant à identifier des patterns de crise, par l'observation répétée de données», avance-t-il. 

CHIFFRE

18%

Part de la population qui aurait recours aux applications de santé mentale disponibles sur smartphone.

Au niveau de l'intervention clinique, ces services digitaux sont en phase émergeante, souligne Yasser Khazaal. «Ils sont encore peu intégrés aux interventions en clinique, ils sont en phase d'étude et de développement au niveau de la recherche.» À l'heure actuelle, aux États-Unis, entre 15 et 20% des adultes utilisent les applications de santé mentale disponibles sur les smartphones[1]. Les femmes en font davantage usage que les hommes, de même que les personnes qui ont déjà un problème de santé mentale ou qui sont suivies. Quelque 40% des gens qui ont un problème de santé y auraient recours, contre 18% pour la population en général.

«La confidentialité des données est inexistante»

Les usagers doivent avoir conscience que leurs échanges avec des agents conversationnels peuvent être utilisés pour «instruire» l'intelligence artificielle.

Tout dépend de l'utilisation que l'on fait de ces plateformes, estime Luca Gambardella, professeur d'IA à la faculté d'informatique de l'Université de la Suisse italienne (USI) et à l'Institut Dalle Molle pour l'étude de l'intelligence artificielle, à Lugano. «Si on l'utilise pour se soigner, c'est préoccupant. En revanche, si on y a recours pour accompagner ou apporter du soutien, avec un contrôle médical à côté, ça peut éventuellement être intéressant.»

Ce phénomène est récent et doit encore être analysé, il est trop tôt pour tirer des conclusions, soutient l'expert. «Il faut un encadrement scientifique clair pour mener des expériences sérieuses, avec des évaluations, afin d'avoir une meilleure compréhension et de pouvoir juger de la pertinence de tels dispositifs.»

Développer un lien émotionnel avec une IA est certainement possible, considère-t-il. «Mais je me demande s'il s'agit-là d'un comportement normal ou pathologique. Certainement pas tout le monde ne peut arriver au stade d'apprécier la machine au-delà de ses qualités techniques.» Pour les personnes qui vivent en marge de la société, qui interagissent uniquement avec des IA, il y a certainement le risque qu'elles perdent encore davantage le contact avec le monde réel, avance-t-il.

La confidentialité inexistante des données personnelles représente un autre problème, souligne Luca Gambardella. «La véritable question est de savoir si les gens sont conscients de la situation. Acceptent-ils que leurs conversations soient réutilisées pour alimenter l'IA?»

Potentiel inexploité

Les personnes qui recourent à ces applications les utilisent depuis leur smartphone. «On observe néanmoins que l’utilisation des applications de santé mentale est souvent de courte durée et qu’il y a un fort taux d'abandon. D'ailleurs, une minorité de personnes exploitent l'ensemble des possibilités de ces applications.»

Dans sa pratique au CHUV, le médecin constate l'usage de ces outils. «Certain-es patient-es utilisent déjà avec succès des applications pour renforcer ou compléter le travail fait avec le médecin. Notamment pour réguler leurs émotions; pour soulager l'anxiété, la dépression, des addictions ou d'autres troubles, ou encore, pour améliorer ce qui fonctionne déjà», indique-t-il.

Ces outils peuvent être considérés comme des soutiens d'appoint, précise l'expert, surtout lorsqu'ils sont spécialisés. «Par exemple, un chatbot peut être utilisé spécifiquement pendant une attaque de panique pour aider la personne à exécuter certains exercices afin de retrouver son calme. Cet outil présente l’avantage d’être disponible au moment où la personne en a besoin et peut aussi contribuer à l’adoption de nouvelles stratégies pour entretenir sa santé mentale.»

Soutien entre deux séances de psy

Selon Yasser Khazaal, il pourrait y avoir à l’avenir davantage de possibilités d'intégration. «Par exemple, ces instruments digitaux peuvent servir pour soutenir les gens entre les séances. Ils peuvent consolider des apprentissages, comme des techniques de régulation des émotions, ou amener les patient-es à questionner leurs croyances, à s'auto-observer ou à prendre part à un forum de discussion.»

L'expert met toutefois en garde: ces outils sont très hétérogènes et ils ne bénéficient pas tous de la validation scientifique et médicale. «Il faut les utiliser en ayant conscience qu'ils ont des faiblesses et des limites. Ces dispositifs peuvent se tromper, il peut leur manquer des informations. Les IA ne peuvent pas non plus interagir avec la même flexibilité qu’un-e humain-e pour moduler la conversation ou s'assurer qu’il n’y a pas de malentendu.»

Le monde digital en général prend de plus en plus de place dans nos vies, fait-il valoir; ce phénomène renforce les opportunités de connexion, mais peut également induire ou maintenir d'autres formes d'isolement ou de solitude, ou s'associer à un usage compulsif de certains services. «Toute prestation digitale est censée être à notre service. Si ce n'est plus le cas, il faut s'interroger. Il est également important de voir comment on s’investit le monde digital par rapport à nos autres priorités.»

Le médecin considère que les jeunes, en particulier, devraient être éduqués et formés par rapport aux services digitaux en général, incluant ceux qui concernent la santé mentale. «Les jeunes doivent également être informés quant aux autres options de soins disponibles. Tant le recours aux soins que le fait qu'on puisse souffrir de problèmes de santé mentale doivent être déstigmatisés.» Lors de problèmes importants ou d'une détresse imminente, Yasser Khazaal recommande de s’adresser aux personnes les plus proches et de contacter les services d'urgence.

Hypnose, sophrologie et autres thérapies en un clic

Une plateforme de services lausannoise mêle des outils liés à l'intelligence artificielles à des prestations humaines.

Ingénieur et designer informatique, Charles Hayoz, 32 ans, a fondé en 2021, depuis Lausanne, la plateforme en ligne OpenSynaps. «Nous offrons un programme dont le fil rouge est l'hypnose, mais nous proposons aussi de la sophrologie, de la méditation, du coaching – des services dispensés par des programme d'IA qui utilisent les prestations d'humains –, des pairs aidants, un forum de partage (avec des personnes réelles), afin que les gens ne se sentent pas seuls, mais accompagnés», détaille l'entrepreneur. Il s'agit d'un service personnalisé, «car toutes les personnes sont différentes et ont des besoins propres», indique Charles Hayoz, faisant valoir que les personnes intéressées sont libres de faire des essais gratuits et de voir ce qui fonctionne pour elles.

OpenSynaps s'adresse avant tout à une clientèle qui n'a pas accès au marché de la santé psychique, précise-t-il; «soit pour des raisons financières parce que leur franchise assurance maladie est très élevée, ou parce qu'ils ne connaissent pas les méthodes alternatives». La plateforme connaît une croissance constante et compte actuellement 10000 utilisateurs et utilisatrices par mois. Les usagers et usagères sont surtout des femmes, âgées entre 30 et 60 ans.

Charles Hayoz reconnaît que le programme a toutefois des limites. «Si une personne a de fortes idées suicidaires ou entend des voix, nous n'hésiterons pas à lui recommander de consulter un-e expert-e», assure-t-il. Mais pour des situations moins urgentes, les témoignages de gratitude sont éloquents: «Je dors enfin!» «Merci pour ce programme qui m'a permis de calmer mon anxiété et de revivre!» D’autres utilisateurs et utilisatrices expliquent que grâce à ce programme ils et elles n’ont plus la peur de voyager en voiture, la phobie des oiseaux, l’obsession du poids idéal, d’autres ont arrêté de fumer ou mis fin à leurs crises de panique.


[1]Vera Cruz, G., Aboujaoude, E., Khan, R., Rochat, L., Ben Brahim, F., Courtois, R., & Khazaal, Y. (2023). Smartphone apps for mental health and wellbeing: A usage survey and machine learning analysis of psychological and behavioral predictors. Digital Health, 20552076231152164.
*Prénom d’emprunt
Application / Données / Éducation / Intelligence artificielle / Psychiatrie / Réseaux sociaux