
Psychologue diplômée, je reçois des personnes expatriées depuis 2012 en téléconsultation. Ainsi, cela permet aux expatriés francophones de pouvoir consulter en français. En effet, en tant qu’expatriés, il n’est pas toujours facile de consulter un(e) psychologue dans sa langue maternelle.
Dernièrement, nous entendons de plus en plus parler de l’intelligence artificielle. Cet article parle des risques liés à l’utilisation des IA comme soutien psychologique.
Un chatbot est un programme avec lequel on interagit (texte, voix, images). Son processus est simple : il reçoit, interprète, décide, consulte et répond. Toujours disponibles et sans jugement, les chatbots offrent un réconfort numérique ponctuel très apprécié, notamment par les adolescents. Cependant, ils ne remplacent ni les amis, ni un soutien psychologique professionnel.
Catégories de Chatbots
Nous pouvons classer les chatbots en cinq catégories principales :
- Chatbots à Réglages Fixes : Ces systèmes sont les plus basiques. Ils offrent ainsi des réponses prérédigées et statiques. Ils sont souvent utilisés dans les services à la clientèle ou à la citoyenneté (exemples : ISSA, Rufus d’Amazon).
- Chatbots Généralistes (alimentés par IA) : Ils utilisent l’IA pour répondre à une vaste gamme de questions. Ils utilisant du texte, des images ou de la voix, et servent à de multiples usages (exemples : ChatGPT, Perplexity, Deepseek).
- Chatbots Spécialisés (alimentés par IA) : Ils sont similaires aux généralistes. Cependant, leur entraînement est ciblé sur des domaines thématiques précis comme la santé émotionnelle, l’éducation ou la compagnie (exemples : Wysa, Tutor AI, Replika).
- Assistants Virtuels (alimentés par IA) : Ils sont conçus pour aider dans les tâches quotidiennes. Ils peuvent suivre des instructions, exécuter des actions concrètes et proposer des alternatives (exemples : Siri, Alexa, l’Assistant Google).
- Assistants Personnalisés (alimentés par IA) : Ce sont des chatbots individuels et personnels que l’utilisateur crée et adapte lui-même. Ils permettent de personnaliser le style et les fonctions pour des objectifs très spécifiques comme l’apprentissage linguistique ou les conseils juridiques (exemples : Watsonx Assistant, fonction GPT de ChatGPT, Gem de Gemini).
L’Illusion de l’empathie et le risque de dépendance
L’un des principaux dangers de l’utilisation des IA comme confidentes est l’illusion d’empathie qu’elles génèrent. En effet, ces systèmes sont des modèles linguistiques sophistiqués et non des êtres doués de conscience ou de sentiments. Ils reproduisent des schémas de langage apaisants sans aucune compréhension réelle de la souffrance humaine. Ceci pose un risque majeur de dépendance affective ou émotionnelle. En effet, l’utilisateur pouvant se couper des relations interpersonnelles réelles en se réfugiant dans le dialogue constant avec une entité non humaine. L’IA ne peut pas offrir la chaleur, le lien, ni l’altérité nécessaires à un développement psychologique sain, piégeant l’utilisateur dans une relation stérile.
Le manque d’expertise clinique et le danger d’une aide superficielle
L’aspect négatif le plus critique concerne le manque total d’expertise clinique et d’encadrement professionnel des IA. En effet, ces outils ne sont pas habilités à évaluer la gravité d’un trouble mental. Ils fournissent des réponses généralistes basées sur des bases de données et sont incapables de réaliser un diagnostic précis ou d’adapter une stratégie thérapeutique complexe. Pour des problèmes psychologiques profonds, l’aide proposée par l’IA sera inévitablement superficielle, voire contre-productive. En cas d’urgence ou de risque suicidaire, par exemple, un chatbot peut s’avérer dangereux en ne réagissant pas de manière appropriée ou en ne dirigeant pas efficacement l’utilisateur vers des ressources humaines vitales.
Risques éthiques et atteinte à la confidentialité des données
Enfin, l‘utilisation des IA comme soutien psychologique soulève d’importantes questions éthiques et de confidentialité. Les conversations partagées avec ces outils, souvent très personnelles et sensibles, sont des données précieuses qui sont collectées et traitées par les entreprises technologiques. L’article met en garde contre le risque de divulgation ou d’exploitation de ces données à des fins commerciales ou autres. De plus, l’IA ne suit aucun code de déontologie professionnelle, contrairement à un psychologue. Il n’y a donc aucune garantie d’éthique, de neutralité, ni de secret professionnel, ce qui est pourtant la pierre angulaire de toute relation d’aide et de confiance en thérapie.
Sources : The Conversation