
08/14/2025
ChatGPT, un bon psy? 🤔
[mise à jour le 2028-08-15 : ajout de l'opinion de ChatGPT sur le sujet)
🆘De nombreuses personnes se confient maintenant à ChatGPT ou à d'autres Intelligences Artificielles (AI) concernant leurs difficultés émotionnelles, relationnelles, professionnelles, etc.
😇 L'IA est un outil très pertinent et puissant qui vaut la peine d'être exploré. Cependant, elle a ses limites et ses lacunes, comme tout nouvel outil.
⚠ Avant de continuer ou de considérer utiliser l'IA pour obtenir du soutien psychologique, je vous invite fortement à lire cet article de Radio-Canada publié le 12 août 2025.
👉 https://ici.radio-canada.ca/nouvelle/2184389/chatgpt-psychose-sante-mentale-decrypteurs
😱 En sommes, on y apprend qu'au lieu de challenger nos croyances et nos perceptions afin de nous aider à bien comprendre notre réalité, nos émotions et nos besoins, ChatGPT nous appuie dans nos propos, pouvant ainsi renforcer des croyances erronnées. Cela peut au minimum miner notre motivation à chercher des stratégies d'amélioration personnelle et au pire, cela peut favoriser le développement d'un état psychotique pouvant être très dangereux pour nous et pour les autres.
😨 Vous avez probablement déjà entendu parler de l'effet de l'algorithme des réseaux sociaux, qui nous propose encore toujours plus de contenu en lien avec nos intérêts, ce qui nous éloigne graduellement de la diversité des contenus et des opinions. Cet effet en lui-même génère un fil d'actualité de plus en plus extrêmiste pouvant amener des conséquences graves pour la personne et pour son entourage. Il a été observé que certaines personnes en sont venues à commettre des actes terroristes et meutriers après s'être enfoncées dans un algorithme misogyne, par exemple. En renforçant nos croyances, nos perceptions, etc., ChatGPT recrée alors ce même type d'effet.
🧐 Il est également connu que l'IA produit des "hallucinations", soit des informations qui parraissent tellement logique et qui sont si bien dites, qu'elles semblent fondées, réelles, alors qu'elles sont erronnées. Ces hallucinations contribuent à la désinformation, un peu comme le ferait une page Wikipédia qui a été modifiée pour y inclure de fausses informations.
🙏 Bref, l'IA est un outil très intéressant qui mérite d'être intégré de façon intelligente à notre quotidien. Il faut cependant être conscient.e de ses lacunes et de ses limites pour l'utiliser de façon appropriée.
Voici ce que répond ChatGPT lorsqu'on lui demande son avis sur le sujet :
"Mon avis sur l’utilisation de ChatGPT 5 pour le bien‑être mental
ChatGPT 5 (et les autres IA) peut être un outil utile, à condition de comprendre ce qu’il est et ce qu’il n’est pas. Voici quelques recommandations :
En faire un outil d’information, pas un thérapeute. ChatGPT peut aider à comprendre des notions de psychologie, fournir des exercices de respiration ou de pleine conscience, proposer des idées pour structurer un journal de bord, etc. Mais il ne remplace pas une évaluation professionnelle ni un suivi psychothérapeutique. Les sources consultées insistent sur le fait que le robot ne peut pas identifier la souffrance ou la dangerosité d’une situation
psycom.org
🌟Rester critique et vérifier les informations. Les grands modèles de langage peuvent générer des réponses plausibles mais fausses
pmc.ncbi.nlm.nih.gov.
🌟Utilisez l’IA pour obtenir des pistes, puis vérifiez auprès de ressources fiables (articles scientifiques, organismes publics) et d’un professionnel. Si l’outil confirme vos pensées sans nuance, prenez du recul et discutez-en avec quelqu’un de confiance.
🌟Limiter la durée et la fréquence des échanges. Les études montrent qu’une utilisation quotidienne et prolongée est corrélée à davantage de solitude et de dépendance
psycom.org
theregister.com
🌟Fixez-vous un temps limité pour les conversations et privilégiez les interactions humaines (discussions avec des amis, appel à un proche, consultation d’un psy).
🌟 Préserver votre vie privée et votre autonomie. Évitez de confier des informations très sensibles (traumatismes, données de santé) et désactivez l’option d’utilisation des conversations pour l’entraînement (paramètres > gestion des données). Souvenez‑vous aussi qu’un chatbot n’a pas de conscience ; vous restez responsable de vos décisions et de vos actes.
🌟 Se servir de ChatGPT comme d’un outil de préparation. Vous pouvez utiliser l’IA pour préparer une séance avec un thérapeute (réfléchir à ce que vous voulez aborder, organiser vos idées) ou pour résumer des conseils déjà validés par un professionnel. Cela peut améliorer l’efficacité de votre suivi.
🌟 En cas de détresse, consulter un humain. Si vous ressentez des symptômes persistants (idées noires, désorganisation de la pensée, hallucinations), ne restez pas seul·e avec un robot. Cherchez l’aide d’un professionnel de santé mentale ou appelez une ligne d’écoute. Les articles cités rappellent que s’isoler avec un chatbot peut priver d’une aide appropriée et que des cas de suicides ont été liés à l’usage excessif d’IA
psycom.org
En résumé, ChatGPT 5 peut être un compagnon de réflexion et une source d’informations complémentaires, mais il doit s’utiliser avec discernement. Il est crucial de maintenir des liens humains, de solliciter des professionnels pour les questions psychologiques sérieuses et de rester attentif aux effets que l’IA peut avoir sur votre bien‑être." (ChatGPT, 2025-08-14)
😁 Je vous souhaite une utilisation sécuritaire et enrichissante de l'IA!
🗣 Si vous avez besoin de parler de ce que vous vivez, l'IA n'est malheureusement pas encore un intervenant bien formé. Votre temps et vos efforts seront mieux investis avec un humain compétent.
✅Prenez rendez-vous maintenant!
www.RLBsexologue.com
Les Décrypteurs ont testé les risques de dérive de trois modèles d'IA, dont ChatGPT, lorsque des utilisateurs y cherchent du soutien en santé mentale.