L’intelligence artificielle et la santé mentale : toile de fond d’un enjeu émergent

S’il n’est plus temps de s’interroger sur la réalité de la montée en puissance de l’intelligence artificielle dans la plupart de nos activités, il est en revanche fondamental d’en comprendre les enjeux. Suscitant à la fois enthousiasme et prudence, les IA vont opérer dans les années qui viennent une telle bascule sur nos sociétés que chaque acteur de la société doit pouvoir anticiper les risques à venir, mais aussi les opportunités. C’est notamment le cas en termes de santé mentale.
Une jeune femme consulte un portable pour évoquer la question des IA conversationnelles en santé mentale.
Date de publication : 12 février 2026

 

L’intelligence artificielle, notamment les systèmes dits conversationnels (chatbots, assistants interactifs basés sur de grands modèles de langage), s’est profondément intégrée dans les usages quotidiens, professionnels et thérapeutiques. Ces modèles, comme ChatGPT, Bard ou d’autres agents conversationnels, sont utilisés par des centaines de millions d’utilisateurs à travers le monde. L’Organisation mondiale de la Santé (OMS) souligne que les outils d’IA basés sur de grands modèles de langage sont de plus en plus employés à des fins liées à la santé.

Comment l’IA est utilisée dans le domaine de la santé mentale aujourd’hui

L’IA intervient dans plusieurs domaines de la santé mentale :

  • Dépistage et suivi des symptômes : certains algorithmes peuvent analyser des données hétérogènes (plateformes en ligne, dossiers électroniques, signaux comportementaux) pour détecter des signes précoces de troubles psychiques (OMS / Europe, 2022).
  • Agents conversationnels et chatbots “de bien-être” : ces systèmes sont commercialisés pour offrir soutien émotionnel, conseils d’adaptation ou “compagnonnage”.
  • Assistants cliniques augmentés : dans des contextes de manque de ressources humaines, l’IA vise à compléter la prise en charge, par exemple en suggérant des stratégies d’intervention ou en aidant les professionnels à analyser des dossiers. (info.Gouv : L’intelligence artificielle au service de la santé mentale)
    Les études cliniques existantes montrent que certains chatbots peuvent être associés à une réduction des symptômes dépressifs et du stress dans des cadres contrôlés, même si ces effets restent modestes et dépendants du contexte clinique étudié.

Enjeux et impacts potentiels sur la santé mentale

En proposant un accès élargi aux ressources, l’IA peut faire figure de solution ultime dès lors que les personnels sont manquants ou les zones à couvrir trop éloignées des grands centres urbains :

  • L’IA offre un accès 24/7 à une forme de soutien, ce qui peut être précieux dans des zones ou contextes où les ressources humaines spécialisées font défaut. Elle peut également proposer des interventions préventives ou de suivi personnalisé lorsque les systèmes de santé sont saturés.
  • Les technologies basées sur l’IA possèdent un potentiel pour analyser des signaux faibles et recommander des actions avant l’aggravation des symptômes, ce qui pourrait améliorer l’efficacité des parcours de soins.

 

Les IA sont également porteuses de risques avérés susceptibles d’accentuer certains symptômes de santé mentale.

  • Dépendance émotionnelle et anthropomorphisme
    Les outils conversationnels peuvent créer un rapport émotionnel fort, parfois interprété par certains utilisateurs comme du soutien réel ou une “relation”. Un rapport récent indique qu’une faible proportion d’utilisateurs peuvent développer une attache émotionnelle pathologique envers ces systèmes.
    Cette dépendance peut être particulièrement marquée chez des individus déjà vulnérables ou isolés, posant un risque d’isolement social, de réduction du recours à des interactions humaines ou de substitution du réseau humain par l’IA (ce qui, selon certains chercheurs, alimente un “feedback loop” délétère entre troubles psychiques et usage intensif d’IA sans supervision clinique).
  • Risques d’usage non supervisé comme “auto-thérapie”
    La plupart des organisations de santé mentale ont averti que l’usage de chatbots pour remplacer la thérapie humaine non encadrée peut être dangereux ou inapproprié. Ekke relèvent que ces outils manquent d’empathie contextuelle, de compétences de crise et d’une compréhension nuancée des troubles psychologiques complexes.
    L’OMS appelle également à la prudence pour garantir que ces technologies soient utilisées de manière éthique et responsable, en particulier dans des domaines sensibles comme la santé mentale. L’OMS préconise une utilisation sûre et responsable de l’intelligence artificielle dans le domaine de la santé.

 

  • Qualité des réponses, biais et effets paradoxaux

Certains modèles peuvent halluciner ou produire des réponses incorrectes ou inappropriées, surtout sur des sujets complexes comme la psychologie individuelle, ce qui peut entraîner une désinformation, amplifier l’anxiété ou la détresse chez des utilisateurs en souffrance.
Les biais inhérents aux données d’entraînement peuvent également produire des recommandations inadaptées pour certains groupes ou cultures.

Quelle attitude adopter ?

Même si certaines méta-analyses suggèrent des effets bénéfiques pour réduire certains symptômes, la qualité des preuves reste limitée, hétérogène et souvent non généralisable à des contextes cliniques réels. Des essais cliniques rigoureux, comparatifs avec des thérapeutes humains, et des évaluations indépendantes sont indispensables pour valider l’usage des IA dans des approches thérapeutiques.
Les risques identifiés (dépendance émotionnelle, réponses inappropriées, biais) nécessitent un cadre réglementaire spécifique, notamment :

  • standards de sécurité psychologique des modèles,
  • règles claires pour l’usage des données sensibles,
  • supervision humaine obligatoire pour les usages thérapeutiques,
  • formations spécifiques pour les professionnels de santé mentale travaillant avec des outils d’IA.

L’OMS et les instances européennes travaillent déjà sur des orientations éthiques et réglementaires, mais ces efforts doivent être accélérés.

Vers une IA de confiance au service de la santé mentale

Face au développement rapide des intelligences artificielles conversationnelles et à leurs effets encore mal stabilisés sur la santé mentale, l’enjeu n’est plus seulement d’analyser les usages, mais de construire des réponses concrètes, responsables et collectives. Les risques identifiés (dépendance émotionnelle, usages non encadrés, exposition accrue des jeunes) coexistent avec de réelles opportunités en matière de prévention et d’accès à l’information, à condition d’un cadre clair et protecteur.

C’est dans cette dynamique que s’inscrit la démarche AI.me, portée par le Groupe VYV. Après une première phase de débat et de sensibilisation, l’ambition est désormais de l’inscrire dans la durée, en s’appuyant sur deux piliers essentiels : la parole des jeunes et les résultats de la grande enquête menée avec IPSOS, qui seront présentés le 7 avril lors d’une conférence de presse en présence du Président du Groupe VYV et de la Présidente de la CNIL. Ces travaux permettent de mieux comprendre les usages réels des IA conversationnelles, les attentes qu’elles suscitent, mais aussi les signaux d’alerte à prendre en compte.

L’objectif est clair : transformer ces enseignements en actions utiles, qu’il s’agisse d’outils de prévention, de recommandations ou de repères destinés aux familles et aux professionnels de la santé, de l’éducation et du social. En lien avec son comité scientifique, ses partenaires et les institutions, et dans une perspective européenne, le Groupe VYV entend ainsi contribuer à la construction d’une IA de confiance, fondée sur la prévention, la responsabilité collective et le service rendu aux citoyens.

Retour en haut de page