Tu as besoin d'un Psy ? Les nouveaux assistants IA, bonne ou mauvaise idée ?
Certains demandent à l’IA des conseils en investissement, la considèrent comme leur confident, voire un substitut relationnel amoureux, et alors que le PDG de NVIDIA en 2025, prédit que bientôt tout le monde aura une IA personnelle qui l'accompagnera partout, favorisant l'entre soi-même réflexif et l'auto-validation, une question s’impose : face à l’explosion des problèmes de santé mentale, pourrait-elle représenter une réponse adaptée ?
Les services de psychiatrie sont saturés, les délais pour consulter un spécialiste s’allongent, et les besoins en accompagnement psychologique n’ont jamais été aussi pressants. Dans ce contexte, l’IA est parfois présentée comme une solution d’avenir, capable de pallier le manque de professionnels et d’offrir un soutien accessible à tous. Mais cette technologie peut-elle réellement être à la hauteur des attentes, ou n’est-elle qu’une illusion de progrès dans un système en difficulté ?
L’Organisation Mondiale de la Santé estime qu’un milliard de personnes vivent avec un trouble mental. La majorité d’entre elles, ne le savent pas ou ne reçoivent aucun traitement, et la pandémie de COVID-19 a encore accentué ces inégalités. Face à cette situation, des initiatives basées sur l’IA, comme les chatbots thérapeutiques utilisant des techniques de thérapie cognitive-comportementale, posent question. Des études indiquent que ces outils peuvent apporter un soutien ponctuel et aider à réduire certains symptômes dépressifs. Inquiètant, non ?
L’IA actuelle fonctionne sur des modèles prédictifs et des algorithmes d’apprentissage qui ne saisissent ni le contexte personnel ni la complexité émotionnelle humaine. Une réponse programmée, même sophistiquée, reste une réponse standardisée et stéréotypée, et même nuancée, elle n'est pas le fruit d'une réelle compréhension du vécu singulier d’un individu. D’ailleurs, de nombreuses applications de santé mentale disponibles sur le marché n’ont pas été soumises à des évaluations scientifiques rigoureuses, ce qui pose un problème quant à leur fiabilité et leur efficacité à long terme. Mais également sur un trop grand libéralisme économique.
Pour les médicaments, un contrôle et une validation des effets, bien qu'imparfaite, est active avant toute mise le marché. En revanche, pour une appli qui peut avoir des effets colossaux sur la santé, il n'en est rien. Une réflexion à mener sur la notion d'intrusion dans le corps ?
L'influencer, c'est agir sur le corps de l'autre.
Physiquement ou psychiquement.
D’un point de vue éthique, des préoccupations majeures émergent : confidentialité des données, sécurité des informations sensibles et responsabilité en cas de mauvaise interprétation ou de recommandations inappropriées. Une IA peut-elle être tenue pour responsable d’un mauvais diagnostic ? Que se passe-t-il si une personne en détresse se fie exclusivement à un chatbot qui ne détecte pas l’urgence de sa situation ? Ces questions, loin d’être théoriques, sont au cœur du problème, tout comme les vidéos virales de challenge d'ingurgitation de billes de lessive.
Là où l’IA pourrait toutefois jouer un rôle pertinent, c’est en tant qu’outil complémentaire. Lorsqu’elle est intégrée dans un parcours de soins supervisé par des professionnels, elle serait censé améliorer l’accès à l’information, assurer un suivi entre les consultations et offrir un premier niveau de soutien, par des messages clés et supervisés. Les premiers arrivés : Woebot, Wysa ou AssistantPsy.fr.
Croire que la technologie pourrait se substituer à la relation humaine dans un domaine aussi délicat que la santé mentale serait une simplification risquée. L’alliance thérapeutique repose sur des éléments qu’aucun algorithme ne peut encore reproduire : le transfert, l’intuition, la nuance, la capacité à ajuster une interaction en fonction de signaux subtils et, surtout, l’engagement authentique dans une relation d’aide.
L’IA est donc un outil, pas une réponse en soi. La véritable question n’est pas de savoir si elle est bonne ou mauvaise, mais comment elle peut être utilisée et surtout régulée de manière éclairée, en gardant à l’esprit qu’aucune technologie ne pourra compenser un manque de connexions humaines ou se substituer à une réflexion plus profonde sur l’organisation des soins en santé mentale.
Le plus grand danger serait peut-être de croire ou d'imaginer, un accès au soutien psychologique pour les pauvres via des applis IA à 10 euros. Et que nos problèmes de santé mentale pourraient se résoudre par la seule technologie, sans remise en question profonde de nos modes de vie et de nos priorités sociétales.