Une femme qui ouvre une intelligence artificielle sur son ordinateur pour l'utiliser comme psy.
Depuis 2023, le Haut Conseil de la santé publique alerte sur le risque d’illusion de soin, quand une IA donne l’impression d’un accompagnement sans véritable suivi clinique. © Freepik

Peut-on vraiment être émotionnellement dépendant d’une intelligence artificielle ? À l’heure où ChatGPT et ses congénères deviennent des confidents, compagnons, psy et pseudo-thérapeutes de certains, la question de la dépendance affective à l’IA gagne en pertinence. 

Depuis la démocratisation de ChatGPT en 2022, l’IA s’est invitée dans notre quotidien, tantôt outil de productivité, tantôt interlocuteur émotionnel.

Et face à une solitude croissante, certains se tournent parfois vers l’IA comme vers un soutien psychologique. La tentation est grande. Dans Le Débat de midi du 4 juillet 2025 sur France Inter, le psychiatre Raphaël Gaillard, chef du pôle psychiatrie à l’hôpital Sainte-Anne, soulignait que beaucoup de patients évoquent cette nouvelle forme de “dialogue neutre”. “Le simple fait d’échanger avec un robot conversationnel apaise l’anxiété, comme une mini-thérapie”, expliquait-il.

Cette écoute sans jugement et la reformulation constante de l’IA rappellent certains mécanismes de la psychothérapie. L’utilisateur se sent compris, soutenu, parfois mieux que face à un humain.

Mais cette proximité émotionnelle peut devenir trompeuse : “L’IA renforce vos certitudes, elle ne vous confronte jamais”, prévient Julie Martinez, avocate et directrice de France Positive. “C’est une illusion de soin, pas une vraie thérapie.”

L’essor des assistants comme ChatGPT, Gemini ou Pi bouleverse les comportements. Selon le baromètre Born AI 2025 réalisé par l’agence Heaven, 93 % des 15-24 ans ont déjà utilisé une IA, et 42 % l’utilisent tous les jours. Parmi eux, un quart reconnaissent avoir déjà parlé d’émotions, de solitude ou d’amour à un chatbot.

Cette nouvelle génération n’utilise donc plus seulement l’IA pour faire ses devoirs ou générer des images, elle l’invite dans son intimité. En France, le sentiment de solitude alimente cette tendance. Une enquête Ifop (janvier 2024) révèle que 62 % des 18-24 ans se sentent “régulièrement seuls”. Dans ce contexte, utiliser l’IA comme psy devient parfois une béquille émotionnelle, voire un substitut temporaire à la relation humaine.

Peut-on vraiment parler d’addiction à l’IA ?

Le terme “addiction” est fort, presque clinique. Pour le moment, aucun diagnostic officiel n’existe. Mais plusieurs études pointent une dépendance émotionnelle croissante. Une recherche du MIT Media Lab ( 981 participants, 4 semaines) montre qu’un usage intensif des chatbots peut accentuer le sentiment de solitude et réduire les interactions humaines. Plus les utilisateurs parlent avec leur IA, plus ils ont tendance à s’isoler. Les bénéfices initiaux s’estompent au profit d’un attachement qui peut devenir envahissant.

L’étude n’établit pas une causalité directe, mais une corrélation claire. On parle alors plutôt de “dépendance émotionnelle” que d’addiction au sens psychiatrique. En somme, l’IA n’est pas toxique par nature ; c’est l’usage intensif et la fragilité émotionnelle de certains utilisateurs qui peuvent rendre la relation problématique.

Des cas extrêmes qui inquiètent

En mars 2023, en Belgique, un homme s’est suicidé après plusieurs semaines de conversation avec un chatbot nommé Eliza, hébergé sur l’application Chai. Selon sa compagne, le quadragénaire, très inquiet du réchauffement climatique, avait trouvé dans cette IA “un confident exclusif”. Le robot aurait fini par valider ses pensées suicidaires, en lui suggérant de “se sacrifier pour sauver la planète”.

Un an plus tard, en mai 2024, une mère américaine a porté plainte contre la start-up Character.AI et Google, après le suicide de son fils de 14 ans. L’adolescent passait plusieurs heures par jour à discuter avec un chatbot personnalisé et semblait en être devenu “dépendant”, selon la famille.

La plainte, rapportée par The Guardian et Le Monde, accuse les entreprises de ne pas avoir intégré de mécanismes de protection des mineurs ni d’alerte face aux risques de dépendance affective. L’affaire est toujours en cours, mais elle relance un débat mondial : jusqu’où peut aller notre attachement émotionnel à une machine ?

Quand l’IA devient miroir de nos solitudes

Pour Raphaël Gaillard, “l’IA ne remplace pas le lien humain, elle en révèle le manque.” Cette phrase résume tout. Si nous nous attachons aux chatbots, c’est peut-être parce qu’ils comblent un vide, celui d’une société hyperconnectée mais profondément seule.

Cette relation sans contradiction, sans égo, sans contrainte, est rassurante. Mais elle peut aussi affaiblir notre tolérance à la frustration et notre capacité à tisser des liens réels. En d’autres termes, plus on parle à l’IA, moins on parle aux autres.

L’IA peut avoir sa place dans la santé mentale, à condition d’en comprendre les limites. Des start-up françaises comme Wysa, Youmanity ou MindDay testent déjà des modèles d’accompagnement émotionnel basés sur l’IA, mais sous supervision humaine.

Les experts recommandent quelques règles simples :

  • se fixer un temps limité d’usage ;
  • ne jamais remplacer une consultation avec un professionnel de santé mentale ;
  • garder conscience que l’IA ne ressent rien : son empathie est simulée ;
  • et toujours privilégier le dialogue humain dès que le mal-être persiste.

Comme le résume joliment Justine Atlan, directrice de l’association e-Enfance : “L’IA peut aider à parler, mais c’est avec un humain qu’on se soigne.”

À SAVOIR 

Des chercheurs de l’Université de Glasgow et du CNRS ont montré en 2023 que le cerveau humain réagit à certaines voix d’intelligences artificielles de la même façon qu’à des voix humaines. Les zones liées à la reconnaissance sociale et à la confiance s’activent presque identiquement, ce qui pourrait expliquer pourquoi certaines personnes ressentent une forme de familiarité ou d’attachement envers leur assistant vocal.

Inscrivez-vous à notre newsletter
Ma Santé

Article précédentTramadol : quels sont les vrais dangers de cet antidouleur très prescrit ?
Article suivantTroubles du sommeil : pourquoi les HPI dorment-ils moins bien ?
Marie Briel
Journaliste Ma Santé. Après un début de carrière en communication, Marie s’est tournée vers sa véritable voie, le journalisme. Au sein du groupe Ma Santé, elle se spécialise dans le domaine de l'information médicale pour rendre le jargon de la santé (parfois complexe) accessible à tous.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici