IA conversationnelle et santé mentale des jeunes : résultats de l’enquête européenne
IA conversationnelle et santé mentale des jeunes : résultats de l’enquête européenne
Selon une enquête du Groupe VYV et de la CNIL menée dans quatre pays européens, près de 9 jeunes sur 10 utilisent une IA conversationnelle en France et près d’un sur deux y évoque des sujets personnels, ces outils s’imposant comme des interlocuteurs en matière de santé mentale — non sans risques pour leur bien-être et leurs données.
Un usage massif qui dépasse le cadre utilitaire
Au départ cantonnées à des usages scolaires ou professionnelles, les IA conversationnelles prennent une place croissante dans la vie des jeunes, jusqu’à investir une sphère plus personnelle. Elles deviennent, pour certains, un espace de confidence : 48 % les utilisent pour parler de sujets personnels ou intimes, et 33 % les considèrent comme un « psy » dans certains cas. Cette proportion atteint 46 % chez les jeunes répondants souffrant d’anxiété.
Cette évolution traduit une transformation profonde des usages numériques : l’IA ne se limite plus à un outil ludique, elle devient un interlocuteur accessible, disponible à tout moment, perçu comme non jugeant et facile d’accès. Elle s’inscrit ainsi dans les parcours informels d’écoute, de conseil et de soutien dans la vie quotidienne.
Une confiance importante, dans un contexte de fragilité psychologique
Cette adoption s’inscrit dans un contexte préoccupant. En France, plus d’un jeune sur quatre présente une suspicion de trouble anxieux généralisé. Dans ce paysage, l’IA conversationnelle apparaît comme un soutien supplémentaire.
Pour autant, l’enquête confirme que les liens humains demeurent centraux : amis et famille restent les premiers interlocuteurs des jeunes pour parler de leurs difficultés. L’IA ne s’y substitue pas, mais s’ajoute comme un relais complémentaire dans leur quotidien.
Cette place croissante s’accompagne d’un niveau de confiance important :
- 69 % des jeunes estiment qu’une IA peut donner des conseils fiables ;
- 56 % qu’elle peut garder secrètes les échanges avec elle ;
- Et 51 % qu’elle peut protéger les informations qui lui sont confiées.
Un décalage entre confiance et compréhension des risques
Si la confiance est installée, la compréhension des enjeux reste partielle. Seuls 32 % des jeunes déclarent savoir ce que deviennent les données qu’ils partagent avec ces outils.
Ce décalage se traduit par des situations d’inconfort : 34 % des jeunes ayant utilisé une IA pour des sujets personnels déclarent s’être déjà sentis mal à l’aise à cause d’un conseil reçu.
Dans le même temps, 85 % expriment le souhait de disposer de davantage d’informations sur les risques et les bonnes pratiques.
Ces résultats révèlent une attente claire : les jeunes souhaitent être mieux informés pour faireun usage éclairé de ces outils.
Un enjeu structurant nécessitant un renforcement de l’éducation au numérique
L’essor des IA conversationnelles constitue un défi nouveau pour les acteurs de la santé, de l’éducation et de la protection sociale. Une part croissante de l’expression du stress, du mal être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels.
Ce déplacement appelle une réponse collective : mieux comprendre ces usages, renforcer l’éducation au numérique, sécuriser les parcours et donner des repères clairs aux jeunes.
« Quand des jeunes se tournent vers une IA pour parler de leur stress, de leur mal-être ou de leurs difficultés personnelles, ce n’est pas un détail technologique : c’est un fait de société. Cette confiance nous oblige collectivement à mieux informer, mieux prévenir et mieux accompagner. L’enjeu n’est ni d’interdire ni de banaliser, mais de donner des repères clairs à une génération qui a déjà intégré ces outils dans sa vie quotidienne. »
Stéphane JUNIQUE, président du Groupe VYV
« Les IA conversationnelles collectent des données personnelles, parfois sensibles, sans que nous en ayons toujours conscience. Il est urgent d’expliquer aux jeunes comment ces systèmes fonctionnent, quelles traces ils laissent, et quels sont leurs droits. La transparence est indispensable pour leur permettre de faire des choix éclairés et de garder à l’esprit que les systèmes d’IA ne sont que des outils : des machines et non des humains. »
Marie-Laure DENIS, présidente de la CNIL
Mieux informer, prévenir et accompagner : une priorité partagée
Pour le Groupe VYV et la CNIL, l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance. Les résultats de l’enquête montrent qu’il existe un terrain favorable : les jeunes restent attachés à leurs proches et expriment une forte attente d’accompagnement.
Il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages.
Dans cette perspective, le Groupe VYV et la CNIL ont lancé l’initiative européenne AI*me, afin de transformer ce constat en action. Cette plateforme vise à fédérer chercheurs, acteurs de santé, éducateurs et régulateurs pour mieux comprendre les usages, développer des outils adaptés aux jeunes et faire émerger, à l’échelle européenne, des repères de confiance en matière de santé mentale et de protection des données.
À propos de l’étude
Étude Ipsos BVA pour le Groupe VYV et la CNIL auprès de 3 800 jeunes âgés de 11 à 25 ans :
France (1 000), Allemagne (1 000), Suède (1 000), Irlande (800).