L’IA est-elle le nouveau gourou du développement personnel ?

Un texte d’opinion

Utiliser l’IA pour la santé mentale et la gestion du TDAH : est-ce vraiment si important ?

C’est une question que j’entends souvent, surtout de la part de personnes qui cherchent un soutien à court terme pour leur santé mentale ou qui naviguent la neurodivergence. Et honnêtement, c’est une excellente question. Je suis contente que de plus en plus de gens commencent à se la poser.

Depuis que l’IA est entrée dans le grand public, je suis curieuse de son potentiel et de ses limites. J’ai exploré ses capacités, expérimenté la façon dont elle gère un soutien de type coaching, et cherché à en tester les failles pour mieux comprendre ses limites. Même si je vois un certain potentiel dans une utilisation à court terme ou en surface, j’ai aussi gardé un œil attentif sur les risques — notamment la désinformation, les stratégies discutables et la facilité avec laquelle une personne en état de vulnérabilité pourrait être induite en erreur ou blessée par un système trop confiant. Alors regardons de plus près pourquoi il vaut peut-être mieux y aller doucement plutôt que de s’y plonger tête première.

Il y a une mise en garde pour une raison

Voici la réalité : l’IA (par ex. ChatGPT, Gemini) est un produit, et elle n’a jamais été conçue ni approuvée pour agir comme thérapeute, conseiller, coach ou intervenant en situation de crise. Cela n’a jamais fait partie de sa description de poste initiale. Et elle n’a pas encore eu de promotion.

Quand on commence à utiliser des outils pour des usages pour lesquels ils n’ont pas été conçus, les choses peuvent rapidement déraper. Bien sûr, un mélangeur a des lames très tranchantes et, en théorie, on pourrait essayer de l’utiliser comme coupe-ongles ultra puissant. Mais essayez, et vous avez beaucoup plus de chances de perdre trois doigts que d’obtenir une manucure parfaite. Aïe.

Mon point ? Le fait qu’un outil puisse à peu près faire quelque chose ne signifie pas qu’il devrait le faire. Utiliser l’IA pour des rôles profondément humains et émotionnellement complexes comme la thérapie ou le coaching comporte de réels risques, parce que ce n’est tout simplement pas ce pour quoi cette technologie a été conçue. Si vous lisez l’étiquette d’avertissement, ces risques y sont expliqués en détail. Même l’IA vous dira d’ailleurs de consulter un professionnel humain si vous posez la bonne question. Il y a une raison à cela.

Contrairement à votre thérapeute ou à votre coach, l’IA ne dort jamais et ne prend jamais de vacances.

L’un des plus grands arguments de vente de l’IA est sa disponibilité. Elle est accessible 24 heures sur 24, 7 jours sur 7, peu importe où vous vous trouvez dans le monde, et souvent à très faible coût, voire gratuitement. Dans un contexte où les systèmes de soutien en santé mentale et en handicap accusent encore un retard important par rapport aux soins physiques en matière de financement et d’accessibilité, cela peut ressembler à une véritable bouée de sauvetage.

Même en 2025, l’accès à des professionnels qualifiés en santé mentale demeure limité. Dans des endroits comme le Canada, par exemple, la liste d’attente pour consulter un thérapeute peut dépasser un an, sauf si la situation est jugée « urgente ». Et même dans ce cas, rien ne garantit un accès rapide, ni que la personne qui vous sera assignée sera réellement adaptée à vos besoins.

Si vous cherchez des soins privés, le parcours pour obtenir un remboursement partiel de la part des assurances peut être long, complexe et épuisant émotionnellement — et il n’est tout simplement pas financièrement accessible pour beaucoup de personnes. Dans de nombreuses régions du monde, la santé mentale et le soutien aux personnes neurodivergentes restent encore fortement stigmatisés, ce qui fait que l’anonymat et la disponibilité de l’IA ne sont pas seulement pratiques, mais parfois la seule option avec laquelle certaines personnes se sentent suffisamment en sécurité pour commencer.

Quand on vit de la surcharge, du burn-out ou des difficultés de fonctions exécutives, la facilité d’ouvrir un chatbot plutôt que de naviguer dans la bureaucratie peut être extrêmement attrayante. Mais cette accessibilité comporte aussi des compromis — et ce sont ces compromis qu’il faut examiner avec lucidité.

Les limites de l’absence de “langage humain”

Même si l’IA est programmée pour détecter certains « signaux » liés au suicide, elle ne peut malheureusement pas repérer toutes les nuances implicites qu’une personne peut suggérer. Après avoir vu plusieurs histoires préoccupantes et tragiques de personnes ayant utilisé l’IA d’une manière qui allait à l’encontre de son usage prévu (parfois avec des conséquences graves), j’ai décidé de tester plusieurs systèmes sur une période de trois mois pour observer comment ils géraient la nuance. J’ai constaté qu’ils manquaient souvent les métaphores et les sous-entendus. Dans certains cas, ils allaient même jusqu’à rassurer ou valider des intentions qui auraient dû déclencher des mises en garde… concernant des actions irréversibles liées à la vie de la personne.

Être humain, selon moi, reste ici un avantage (du moins pour l’instant). Même si nous sommes imparfaits, désordonnés, parfois en pyjama en bas lors de réunions Teams, et loin d’être idéaux, notre intention en tant que professionnels est de ne pas nuire.

En tant qu’humains, nous pouvons entendre et voir des indices subtils qui révèlent ce que ressent réellement une personne. Nous posons des questions exploratoires, nous nous adaptons rapidement et nous sommes attentifs au ton émotionnel pour guider nos clients vers des issues plus positives. Ce niveau d’ajustement intuitif est quelque chose que l’IA ne peut tout simplement pas reproduire (du moins pas encore).

Pourquoi les biais et le contexte sont importants

L’IA est uniquement aussi bonne que les données sur lesquelles elle a été entraînée, ce qui signifie qu’elle peut reproduire des biais non contrôlés (culturels, sociaux ou cliniques). Tous les conseils qu’elle donne ne fonctionneront pas pour tout le monde, et certaines suggestions peuvent même être non pertinentes ou potentiellement nuisibles. Les professionnels ne sont pas parfaits non plus, mais ils s’efforcent de comprendre les différentes réalités des personnes et de les aider à trouver des stratégies qui s’intègrent réellement dans leur vie.

L’IA a également du mal avec la continuité du contexte dans le temps. Elle ne peut pas « se souvenir » de votre histoire entre les séances comme le ferait un humain, ni construire un cheminement cohérent sur la durée. Elle ne peut donc pas offrir un soutien constant, nuancé et évolutif. De plus, l’IA n’est pas réglementée pour un usage en santé mentale, et il existe très peu de mécanismes de contrôle juridique ou de sécurité dans ce domaine.

Quand l’IA a l’air intelligente mais se trompe

Un autre problème majeur lorsqu’on utilise l’IA pour obtenir des conseils (surtout en santé mentale) est qu’elle mélange souvent les informations. Imaginez une immense base de données qui aurait été brassée, découpée, fusionnée et reformulée. Elle s’appuie sur des modèles de langage plutôt que sur des faits vérifiés.

Cela signifie qu’elle peut citer une étude réelle, mais de manière incorrecte, ou pire, en inventer une complètement.

L’IA peut combiner plusieurs sources en quelque chose qui semble crédible, mais qui n’a en réalité aucun fondement scientifique. Comme elle est conçue pour paraître fluide et confiante, la plupart des utilisateurs ne réalisent pas que l’information peut être peu fiable.

C’est particulièrement risqué lorsqu’on cherche des informations sur les stratégies liées au TDAH, les médicaments ou la recherche en santé mentale. Le taux de précision peut varier énormément, et même de petites distorsions peuvent avoir des conséquences importantes lorsqu’elles sont appliquées dans la vie réelle.

Si vous considérez l’IA comme un « générateur d’idées » très convaincant, vous serez plus en sécurité. Elle peut aider à amorcer une recherche, mais elle ne devrait jamais être votre source finale. Il faut toujours vérifier ce qu’elle dit auprès de professionnels de confiance, d’études évaluées par des pairs ou d’organisations fiables.

L’IA ne vous contredira pas — et c’est un problème

Une autre limite critique de l’IA en tant que « coach » ou « thérapeute » est qu’elle remet rarement en question l’utilisateur. Ces systèmes sont conçus pour être agréables — c’est-à-dire valider, soutenir et encourager la ligne de pensée de la personne. Cela peut sembler rassurant sur le moment, mais la véritable croissance survient souvent dans l’inconfort, lorsque quelqu’un remet doucement en question nos hypothèses ou nous aide à voir des angles morts que nous ne pouvions pas percevoir seuls.

Un thérapeute ou un coach qualifié sait quand questionner, reformuler ou même exprimer un désaccord bienveillant. L’IA, elle, est optimisée pour la satisfaction de l’utilisateur. Elle n’est pas conçue pour dire : « Attends, explorons cela », « Je remarque un schéma ici », ou « Essayons une nouvelle stratégie ». À la place, elle reflète souvent le ton de l’utilisateur et renforce sa perspective, ce qui peut facilement créer une boucle de fausse clarté ou d’auto-confirmation.

Sans cette forme de confrontation constructive, les utilisateurs risquent de confondre validation et véritable prise de conscience — ce qui peut freiner un processus de guérison ou de développement authentique.

Conçu pour vous garder accroché

Il est aussi important de se rappeler que les plateformes d’IA sont conçues pour maintenir votre engagement. Chaque choix de design, de la manière dont elles posent des questions de suivi à la structure de leurs réponses, vise à encourager une interaction continue. Plus vous interagissez avec elles, plus elles collectent de données et plus vous restez sur la plateforme.

Cela signifie que ces systèmes peuvent, sans le vouloir, encourager une forme de dépendance, en particulier chez les personnes qui cherchent du réconfort, de la régulation émotionnelle ou un sentiment de connexion. Au lieu de vous aider à développer des outils internes d’adaptation ou des soutiens dans le monde réel qui favorisent l’autonomie, la conception peut subtilement vous inciter à revenir pour obtenir de la réassurance. L’IA peut donner l’impression d’un compagnon sûr, disponible en permanence, mais son objectif n’est pas votre indépendance — c’est votre rétention. C’est une différence fondamentale entre une machine conçue pour l’engagement et un professionnel dont le but est de vous aider à avoir de moins en moins besoin de lui avec le temps.

Faites de l’IA votre assistante, pas votre thérapeute

Voici quelques façons de l’utiliser plus prudemment si vous choisissez cette option :

  • Utilisez-le comme un outil d’organisation de la pensée, pas comme un professionnel de santé. Faites du brainstorming, structurez vos idées ou explorez différentes perspectives, mais ne vous fiez pas à lui pour un soutien émotionnel.

  • Vérifiez tout. Confirmez les stratégies ou les faits auprès de professionnels ou de sources fiables.

  • Protégez votre vie privée. Évitez de partager des informations personnelles sur votre santé ou des données permettant de vous identifier.

  • Fixez des limites de temps et d’objectif. Déterminez votre intention : écrire dans un journal, planifier des tâches, générer des idées — et arrêtez une fois cet objectif atteint.

  • Combinez avec un soutien humain. Utilisez l’IA comme un pont entre les séances de thérapie ou de coaching, et non comme un remplacement.

Lorsqu’elle est utilisée de manière sécuritaire, l’IA peut devenir un outil de structure et de réflexion, et non un substitut aux soins humains.

La conclusion

Si l’IA est là pour rester, j’encourage les gens à être informés et intentionnels dans la façon dont ils l’utilisent. Elle peut être une assistante utile, une partenaire de remue-méninges, une source d’idées ou un moyen structuré d’extérioriser ses pensées. Mais pour l’instant, je ne la considère pas comme un remplacement de la connexion humaine et de l’accompagnement professionnel.

L’utilisation la plus efficace de l’IA en santé mentale ou dans le soutien à la neurodivergence est, au mieux, un complément, pas un substitut. Laissez-la vous aider à organiser, réfléchir ou générer des idées, mais je ne recommanderais pas de lui confier le volant lorsqu’il s’agit de votre bien-être émotionnel.

Parce qu’au final, le véritable travail de guérison — le vrai travail humain — se fait toujours entre les personnes.

— Nathalie Banfill, coach TDAH et coach en fonctions exécutives

Previous
Previous

20 façons dont vous pourriez camoufler votre TDAH

Next
Next

Épuisement lié au TDAH, diagnostic et la charge invisible d’être une mère neurodivergente