Numérique de confiance : l’interview

La révolution numérique, la big data et désormais l’intelligence artificielle, sont porteuses d’innovation et de changements profonds. Les IA conversationnelles posent désormais de nouvelles questions en matière de santé mentale, notamment auprès des jeunes. Comment faire de cette innovation un réel progrès tout en minimisant les impacts négatifs ? Candice Van Lancker, Directrice Programme IA de Confiance
Candice Van Lancker
Date de publication : 12 février 2026

Le Groupe VYV s’est engagé depuis plusieurs années sur les enjeux liés aux usages du numérique. Quel a été le point de départ de la réflexion ?

 

Candice Van Lancker, Directrice Programme IA de Confiance

Le point de départ remonte à la création du Groupe VYV… en 2017 ! Avec la mise en place de la Direction Data par Valérie Schlosser, nous avons engagé une réflexion sur les usages du numérique à un moment où peu de citoyens avaient conscience de la valeur des données personnelles. Face à l’émergence d’applications de plus en plus engageantes et aux premiers signaux d’alerte observés chez les jeunes, nous avons fait le choix d’agir tôt.

Cela s’est traduit par une collaboration précoce avec la CNIL et MGEN autour d’un premier outil de prévention à destination des jeunes : une vidéo réalisée avec le youtubeur Le Rire Jaune, vue près de 10 millions de fois et largement relayée dans les écoles pour susciter le débat avec les élèves !

Vous évoquiez il y a quelques années le concept « d’éthique et numérique », aujourd’hui on parlerait plutôt de « numérique responsable » … qu’y a-t-il derrière ce glissement ?

Ce n’est pas juste un changement de mots. C’est le signe d’une vraie évolution, parce que le numérique évolue très vite, souvent plus vite que notre capacité à construire des règles et des lois adaptées !  Mais parler d’éthique, c’est important car cela permet de poser des principes, des valeurs, un cadre de réflexion. C’était nécessaire, mais ça restait parfois abstrait…

Aujourd’hui, avec le numérique responsable, on est passé à une logique beaucoup plus concrète et opérationnelle. C’est prendre conscience que les choix technologiques ont des conséquences très concrètes sur la vie quotidienne, et plus spécifiquement sur la santé mentale et la vie privée des citoyens, notamment les jeunes.

Pour le Groupe VYV, cela signifie passer des principes à l’action, en agissant à la fois en interne, au sein de l’entreprise, pour encadrer nos propres usages du numérique et de l’IA, et en externe, auprès de nos adhérents et des citoyens, afin de préserver concrètement leur santé mentale et leur vie privée. Mettre l’humain, la protection des données et la santé mentale au cœur des décisions numériques.

La thématique de la santé mentale des jeunes s’est imposée à partir de la crise du Covid-19. Le Groupe VYV avait-il anticipé ce risque ?

Oui, en partie…
Avant même la crise du Covid-19, on observait déjà des signaux faibles : une fatigue accrue des jeunes en classe lié à une surexposition aux écrans, et des usages numériques de plus en plus présents dans leur quotidien.

La crise du Covid-19 a surtout accéléré des phénomènes déjà à l’œuvre ! Les écrans sont devenus omniprésents dans la vie des jeunes, avec des effets très concrets : plus de sédentarité, une difficulté croissante à décrocher et à trouver un équilibre entre la vie réelle et la vie sur les réseaux. Cela a eu des impacts bien concrets, à la fois sur le plan physique et sur le plan mental de nombreux jeunes mais aussi de leurs parents !

Et en réalité, cela était prévisible… À ce moment-là, parents et enseignants découvraient eux aussi ces usages ! Il est forcément difficile d’accompagner, d’éduquer ou de poser des repères sur des pratiques nouvelles, quand on manque soi-même de recul et d’expérience sur ces sujets.

Le Groupe VYV n’a pas découvert le sujet, mais il a compris assez tôt qu’il fallait changer d’échelle et traiter la santé mentale des jeunes comme un enjeu de santé publique durable, directement lié aux usages du numérique. La prévention est alors vite devenue essentielle : aider les jeunes et les parents à comprendre que derrière des applications gratuites, il existe des enjeux économiques liés aux données, développer l’esprit critique des jeunes pour qu’ils puissent décrypter les mécanismes de traçage et d’attention, et surtout proposer des outils de prévention qui favorisent le dialogue entre parents et enfants autour de ces usages.

Les actions engagées en la matière (on pense notamment au dispositif « gardiens et gardiennes du numérique ») sont clairement des actions liées à la prévention. Faut-il aller plus loin tout en restant dans le cadre préventif ou faudrait-il actionner de nouveaux leviers ?

Après le succès de la vidéo avec le Rire Jaune, on s’est dit qu’il fallait aller plus loin avec la CNIL. L’idée, avec Les Gardiens et Gardiennes du numérique, c’était de proposer une expérience ludique, concrète et immersive que parents et enfants pouvaient vivre ensemble.

Les missions s’inspiraient de situations très réelles (le cyberharcèlement, les jeux vidéo, la manipulation des plateformes informationnelles, l’e-réputation) avec un objectif simple : créer du dialogue dans les familles. Et on a fait le choix, volontairement, de montrer que parfois, la vigilance devait aussi venir des parents, par exemple quand des photos d’enfants sont partagées sur des réseaux laissés en mode public.

Le dispositif a ensuite été largement diffusé avec MGEN, le soutien de la CNIL et du ministère de l’Éducation nationale mais aussi d’autres partenaires notamment grâce à la diffusion des livrets pédagogiques que nous avons également réalisée pour permettre de mieux comprendre les concepts abordés missions et de prolonger les échanges après l’expérience. Aujourd’hui, ce sont plusieurs milliers de livrets qui sont distribués par la CNIL dans les écoles partout en France, et des lieux qui accueillent Les Gardiens du numérique, de façon éphémère comme chaque année sur le stand MGEN au Salon Européen de l’Education ou de manière pérenne, comme à Blois ou à la Maison de justice de Champigny.

Avec les IA conversationnelles, on change encore d’échelle ! Ce sont des aspirateurs de données beaucoup plus puissants, mais surtout des technologies qui créent de nouveaux usages, beaucoup plus complexes et plus impactant sur la vie des jeunes, et plus largement sur celle des citoyens. Aller plus loin, ce n’est donc pas sortir de la prévention, mais continuer à la faire évoluer, réfléchir à de nouvelles formes de prévention pour accompagner ces usages pour lesquels nous avons si peu de recul et que nous devons rapidement comprendre pour agir efficacement !

Le groupe est partenaire de la CNIL depuis plusieurs années, comment s’est engagé ce partenariat et autour de quelles attentes ?

Ce partenariat s’est construit dans le temps, pas à pas, et surtout dans une relation de confiance !
Dès le départ, il y avait une conviction commune : pour être efficace, la sensibilisation et la prévention devaient s’inscrire dans la durée et surtout évoluer avec les usages en s’appuyant sur une compréhension fine des réalités du terrain.

Le Groupe VYV et la CNIL se sont retrouvés sur une même manière de travailler : prendre le temps de tester, d’expérimenter, d’ajuster, et de construire des outils utiles, compréhensibles et accessibles. L’objectif n’a jamais été de répondre à une actualité mais d’anticiper certains risques…

Avec le temps, la confiance s’est installée. Elle nous a permis d’aborder des sujets de plus en plus complexes (de l’éducation au numérique, aux données de santé, jusqu’aux IA conversationnelles aujourd’hui) tout en gardant la même exigence : protéger les citoyens, développer leur esprit critique et agir de façon responsable.

C’est cette construction dans la durée, fondée sur la confiance et la complémentarité de nos rôles, qui fait aujourd’hui la solidité et la crédibilité de ce partenariat.

En créant le dispositif « AI.me » et son premier temps fort le 12 février au Parlement européen, la démarche de conscientisation des enjeux du numérique et de l’IA prend une nouvelle dimension. Qu’attendez-vous de cette journée ?

Ce que j’attends avant tout de cette journée, c’est une parole sincère des jeunes !

Le 12 février n’est pas un événement symbolique, mais un vrai temps d’écoute pour comprendre comment les IA conversationnelles s’inscrivent dans leur quotidien, ce que cela change dans leur rapport aux autres, à eux-mêmes, à leurs données et à leur santé mentale. Cette journée au Parlement européen regroupera 130 jeunes recrutés par les équipes de la Direction Gouvernance mutualiste du Groupe et de différents réseaux européens et des témoins : associations, institutions, structures éducatives, sanitaires, culturelles, artistiques ou de recherche.

L’objectif est aussi de créer un dialogue direct entre les jeunes, les scientifiques, les acteurs de santé, les institutions, les décideurs et les artistes pour réfléchir ensemble aux actions concrète de demain pour pouvoir tout simplement utiliser ces IA sereinement et préserver ainsi notre santé et notre vie privée !

Cette journée marque surtout le point de départ d’un travail dans la durée. C’est dans cette perspective que le Groupe VYV et la CNIL s’unissent pour lancer AI.me, un dispositif pour comprendre, unir et agir en faveur de la protection de la vie privée et de la santé mentale des jeunesses à l’ère des IA conversationnelles. L’ambition est claire : faire émerger collectivement de nouvelles formes de prévention et de régulation pour bâtir une IA de confiance.
Pour en savoir plus, je vous invite à consulter la web-publication dédiée.

On a vu le président du Groupe VYV prendre la parole dans les médias sur la thématique de l’intelligence artificielle. Pensez-vous que le sujet va devenir prépondérant dans les années qui viennent ?

Les IAG ouvrent la voie à de nouveaux confidents, comme pouvaient l’être des journaux intimes pour des générations de jeunes avant eux. La différence, c’est qu’ils répondent, et qu’ils sont à la fois de mauvais confidents et de mauvais conseillers. De mauvais confidents, car les données sont toujours employées, et quand on parle de mineurs, ça peut soulever nombre de questions éthiques. De mauvais conseillers, car l’histoire récente témoigne de situations dramatiques. Il faut à la fois prendre conscience des opportunités mais aussi de ces risques réels, et interroger sur le pourquoi de cet usage : se tourner vers des tiers qui ne peuvent pas apporter un jugement personnel et humain. L’enjeu, c’est d’intégrer ces attentes, protéger nos jeunes et en premier lieu leur santé et leurs données.

C’est précisément pour cela que le sujet va devenir central dans les années à venir. Et c’est aussi ce que nous allons travailler très concrètement avec les jeunes le 12 février prochain. Ils seront invités à échanger sur leur rapport émotionnel à l’IA, sur les impacts possibles sur la santé mentale et la vulnérabilité, sur la manière dont ces outils transforment la sociabilité et le lien à l’autre, mais les accompagnent au quotidien, qu’ils soient dans le champ de la santé, de l’éducation ou du social. La manière dont nous allons intégrer ces IA conversationnelles aujourd’hui aura des conséquences durables sur les générations à venir, et c’est pour cela qu’il est essentiel d’agir dès maintenant, de façon collective et responsable.

Quelle sera votre prochaine étape ?

La prochaine étape, c’est vraiment de faire vivre AI.me dans le temps !
Après le 12 février, on va s’appuyer sur deux choses essentielles : la parole des jeunes et les résultats de la grande enquête menée avec IPSOS qui seront présentés le 7 avril prochain lors d’une conférence de presse en présence de notre Président et de la Présidente de la CNIL. Cette enquête nous permet de mieux comprendre comment les jeunes utilisent les IA conversationnelles, ce qu’ils en attendent, mais aussi les signaux d’alerte qu’il ne faut pas ignorer.

L’idée est très concrète : transformer ces enseignements en actions utiles. Cela peut être des outils de prévention, des recommandations, mais aussi des repères clairs pour les familles et pour les professionnels de la santé, de l’éducation ou du social, qui sont en première ligne face à ces nouveaux usages.

On va aussi continuer à travailler avec le comité scientifique, les partenaires et les institutions, pour inscrire cette démarche dans la durée et à l’échelle européenne avec le réseau des CNIL européennes.

L’objectif, au fond, c’est de contribuer à construire une IA de confiance, basée sur les usages réels, la prévention et une responsabilité collective au service des citoyens.

Retour en haut de page