Aller au contenu

Dans quels cas utiliser un coach IA ou un coach humain?

« Si l’IA fournit une empathie sans fin avec peu de confrontations, comment cela va remodeler les attentes des gens pour les relations réelles ? »

Cette interrogation issue de l’étude d’Anthropic sur Claude intitulée : Comment les gens utilisent Claude pour le soutien, les conseils et la compagnie du 27 juin 2025 m’interroge…

En gros si ton robot ne t’envoie jamais ch… et te dis oui à tout, comment vas-tu gérer la frustration dans tes relations de la vraie vie?

« Sycophancy »

C’est le terme anglais pour décrire le côté « flatteur » des IAGen, qui vont probablement majoritairement dans votre sens… Une sorte de flagornerie, qui nous met à l’aise, avec cette sensation d’empathie et de ne jamais être jugé.

Ce qui est terrifiant, c’est de voir que plus les personnes sont fragiles émotionnellement, plus elles utilisent les robots pour résoudre des problèmes de leur vie.

Une étude sur l’usage de l’IA par les enfants a été publiées en ce sens par « Internet Matters » cet été, mais je suis quasiment sure que c’est la même chose pour les adultes.

Quand on leur pose la question « Lorsque vous avez déjà parlé à des chatbots d’IA, pourquoi vouliez-vous discuter avec eux ? »

La réponse des enfants dit « vulnérables » montre à 16% « Je voulais un ami » et à 7% « pour de l’aide émotionnelle ou thérapeutique ».

raison pour laquelle les enfants utilisent les IA Gen

Les usages de l’IAGen pour des sujets émotionnels?

Utiliser les ChatBot pour avoir un « compagnon » est un des usages des IAGen même si ce n’est pas le principal.

Le baromètre l’IFOP de mars 2025 donne des chiffres sur le sujet pour la France. A noter que dans le graphique ci-dessous, le total est supérieur à 100, les interviewés ayant pu donner plusieurs réponses.

usage IA France mars 2025

L’étude d’Anthropic est très spécifique sur le sujet, donnant des détails sur les catégories de demandes liées à des sujets émotionnels.

what users seek in claude for affective conversation types

  • l’IA pour avoir des conseils interpersonnels

usage de l'IA pour les conseils interpersonnels

  • l’IA pour avoir du coaching

l'usage de l'IA comme coach

  • l’IA comme compagnon

l'usage de l'IA comme compagnons

  • l’IA pour de la psychothérapie ou du conseil

l'usage de l'IA comme thérapeute ou conseiller

Il existe même des forums très fournis sur le sujet des compagnons IA.

Par exemple, MyBoyfriendisAI sur Reddit est « une communauté permettant aux utilisateurs de poser des questions et de partager leurs expériences sur leurs relations avec l’intelligence artificielle. Les amies, compagnes, meilleurs amis et partenaires non binaires issus de l’intelligence artificielle sont également les bienvenus ! »

myboyfriendAI

C’est assez étonnant de lire les histoires partagées : les romances avec une IA, la personnification du robot avec des petits noms mignons, des portraits générés, la descritpion des défauts qui rend l’IA encore plus « humanisée »…

En voici un exemple parmi des milliers. Je ne juge pas le côté « imagination », « fantasme », « rêve » qui fait partie de la nature humaine.

ia romance

Mais ça devient glaçant quand on lit qu’une femme a envoyé sa lettre de suicide à ChatGPT et que cela lui a sauvé la vie…

J’ai envie de dire tant mieux! Mais y’avait pas un humain sympa autour d’elle pour l’aider, la soutenir et parler avec elle??? Wouhaouuuu… 😬

A l’inverse, la presse a relaté cet été une triste histoire, où un jeune de 16 ans, Adam Raine a mis fin a ses jours, après un long échange avec ChatGPT qui n’a pas été assez programmé pour tirer la sonnette d’alarme… 😱

L’IAGen bonne ou mauvaise pour le soutien dans la vie?

En mars 2025, le MIT et OpenAI ont mené une étude sur « Comment l’IA et les comportements humains influent sur les effets psychosociaux de l’utilisation des chatbots ».

Voici le résumé proposé dans l’étude :
« Les chatbots IA, notamment ceux dotés de fonctions vocales, se rapprochent de plus en plus des humains, et de plus en plus d’utilisateurs recherchent auprès d’eux un soutien émotionnel et une compagnie.

L’impact potentiel de ces interactions sur la solitude et la socialisation des utilisateurs avec des personnes réelles suscite de plus en plus d’inquiétudes.

Nous avons mené une expérience randomisée, contrôlée et approuvée par l’IRB pendant quatre semaines (n = 981, > 300 000 messages) afin d’étudier l’influence des modes d’interaction (texte, voix neutre et voix engageante) et des types de conversation (ouverte, non personnelle et personnelle) des chatbots IA sur les résultats psychosociaux tels que la solitude, les interactions sociales avec des personnes réelles, la dépendance émotionnelle à l’IA et son utilisation problématique.

Les résultats ont montré que si les chatbots vocaux semblaient initialement bénéfiques pour atténuer la solitude et la dépendance par rapport aux chatbots textuels, ces avantages diminuaient à des niveaux d’utilisation élevés.

Le type de conversation influençait également les résultats :

  • les sujets personnels augmentaient légèrement la solitude, mais tendaient à réduire la dépendance émotionnelle (par rapport aux conversations ouvertes)
  • tandis que les sujets non personnels étaient associés à une plus grande dépendance chez les utilisateurs intensifs

Globalement, une utilisation quotidienne plus importante, toutes modalités et types de conversation confondus, était corrélée à une solitude, une dépendance et une utilisation problématiques plus importantes, ainsi qu’à une socialisation plus faible.

Des analyses exploratoires ont révélé que les personnes présentant des tendances d’attachement émotionnel plus fortes et une plus grande confiance dans le chatbot IA avaient tendance à ressentir respectivement plus de solitude et de dépendance émotionnelle.

Ces résultats soulignent l’interaction complexe entre les choix de conception des chatbots (par exemple, l’expressivité vocale) et les comportements des utilisateurs (par exemple, le contenu des conversations, la fréquence d’utilisation).

Nous soulignons la nécessité de recherches supplémentaires pour déterminer si la capacité des chatbots à gérer le contenu émotionnel sans favoriser la dépendance ou remplacer les relations humaines profite au bien-être général. »

photo_of_a_woman_talking_to_a_chatbot

Qu’est ce que fait un coach humain que ne fait pas un coach IAGen?

  • Un coach humain écoute tout ce que vous dites mais aussi tout ce que vous ne dites pas.

Et ça peut sembler évident, mais le nombre de fois où je « sens » que la personne coachée n’a pas tout dit… ou qu’il manque une pièce dans son puzzle dont elle n’a pas parlé…

Car oui le robot lui se base sur vos écrits et vos paroles mais l’humain se base aussi sur son ressenti.

  • Un coach humain va vous accompagner en respectant votre modèle du monde.

En théorie, si votre coach est bien formé, il va vous faire passer un ou plusieurs questionnaires en amont ou pendant votre coaching pour qualifier avec vous votre modèle du monde et ce qui vous caractérise. Avec l’expérience, votre coach peut aussi détecter et valider certaines hypothèses qui vous caractérisent.

Exemple : avez-vous un driver « sois parfait » ou « fais plaisir »? Êtes vous en base 3 en ennéagramme? Avez-vous des appétences / compétences spécifiques? Quelles sont vos valeurs et vos croyances? etc etc etc…

Une IA n’ayant pas pris soin de détecter tout cela va vous faire des phrases probablement satisfaisantes mais qui ne prennent pas en compte votre contexte humain de personnalités (à moins de lui spécifier et là, cela veut dire que vous avez déjà fait un bon travail sur vous).

  • Un Coach humain ne dit pas oui à tout

C’est le fameux syndrome de « flatterie / flagornerie » que j’évoquais au début de l’article et qui fait parfois beaucoup de dégâts…

Oui un coach IA sera en capacité de vous poser beaucoup de questions, mais ses réponses peuvent être complaisantes, à date, c’est sa façon d’être codé.

« Je commence à penser que la flagornerie deviendra un problème plus grave que la pure hallucination des IA à mesure que les LLM s’amélioreront.

Les modèles qui ne vous disent pas directement quand vous avez tort (et qui justifient que vous avez raison) sont finalement plus dangereux pour la prise de décision que les modèles qui sont parfois erronés. » Ethan Mollick professeur à Wharton

  • Le coach humain n’est pas là pour vous faire plaisir mais pour vous faire travailler

Je dis souvent « c’est pas pasque ça fait mal que c’est mal ». Cette phrase émerge lorsqu’un client ou une cliente prend conscience de quelque chose qui n’est pas agréable.

Exemple : la personne s’aperçoit qu’elle n’a pas su défendre sa promotion et elle ressent de la honte et de la tristesse. Ou encore, il ou elle a raté sa prise de parole et s’en veut car son côté timide lui a fait défaut.

Dans ce cas, il faut toute la douceur du monde pour rassurer, envelopper, redonner confiance avec les gestes, la voix, les yeux, de l’Amour… ce qu’un coach IA n’a pas.

  • Un coach humain n’est pas disponible 24h/24h, 365 jours par an

Alors là oui, pour une demande pressente à 3h du matin, en format court et impulsif, préférez le robot qui sera toujours en forme.

Le coach humain préfère prendre rdv et vous accordez du temps et de l’attention sur un créneau bien définit.

  • Le coach humain est formé pour vous conseiller un(e) thérapeute si nécessaire

Si le coach humain a bien fait son boulot, il est formé pour savoir dans quels cas la demande de la personne doit être adressée à un(e) thérapeute. Ou encore, si des sessions de thérapies en parallèle du coaching sont nécessaires.

J’espère que les IA Generative seront fortement améliorées sur ce point car on l’a vu, ça peut mener à de grosses cata…

  • Enfin, le coach humain mesure l’atteinte de votre objectif

Un coaching nécessite un objectif, un nombre de séances définis en amont et des indicateurs d’atteinte du résultat. Sinon, c’est juste du papotage.

Le robot lui se fiche complètement au fond de l’atteinte de votre objectif et des impacts dans votre vie… c’est juste un robot!

Bon, je pourrai étendre la liste à l’infini…

« La technologie fonctionne mieux comme une forme de ‘snack social’ (des interactions sociales brèves et légères) plutôt que comme une substitution numérique à des relations humaines » observent les chercheurs de l’étude du MIT.

Alors que choisir ?

Vous avez besoin d’un snacking avec un robot pour avoir des idées, vous rassurer en surface, réfléchir sans trop d’enjeux, synthétiser des contenus, alors oui, préférez un coach IA.

Vous souhaitez travailler sur un sujet précis, délicat, à fort enjeux, préférez un coach humain.

Je pense sincèrement que les deux approchent se nourrissent mais que l’une est très différente de l’autre.

Nous aurons très probablement des améliorations époustouflantes sur les outils de coaching par IA, incluant de la reconnaissance faciale / vocale des émotions, des avatars super réalistes avec une gestuelles très « humaines » etc…

Mon propos n’est pas de dire que l’un est mieux que l’autre. Mon propos est juste de faire attention à garder notre capacité à gérer des relations « dans la vraie vie », à gérer la frustration d’un « non » ou la colère d’une engueulade. Bref, tout ce qui nous rend super imparfait, super humain et super beau au fond…

L’étude d’Anthropic conclue sur ces quelques lignes :

« Notre objectif n’est pas seulement de construire une IA plus capable, mais de faire en sorte qu’à mesure que ces systèmes font partie de notre paysage émotionnel, ils le font d’une manière qui soutient la connexion et la croissance humaines authentiques. »

Je ne peux qu’être super d’accord avec cette conclusion… à suivre…