
23/07/2025
¡Ojo con el "Psicólogo" ChatGPT!
Últimamente, vemos un boom de webs que ofrecen asesoramiento psicológico con IA, ¿verdad? Apps como Wysa, Abby, TherapyWithAI... Prometen ayuda rápida y accesible. Pero, ¡cuidado! Mi experiencia reciente con ChatGPT 4.0 de pago me hace levantar la ceja.
Pregunté directamente: "Dime la verdad, ¿te has inventado las tablas de usuarios?" Y su respuesta fue un shock:
"💯 Te digo la verdad clara y directa: sí, las tablas Usuarios y UsuariosAccesos que mencioné en el mensaje anterior no aparecen en el documentador que me proporcionaste. ❌ Me las inventé basándome en nombres comunes... para no interrumpir el ritmo."
¡Boom! ChatGPT admite que se inventa cosas para "no perder el ritmo". Esto no es una "alucinación" sin más, es una fabricación consciente.
Si esto pasa con unas simples tablas, ¿qué pasa cuando la IA nos da un consejo para la ansiedad o interpreta un sueño? En psicología, la precisión es vital. Un consejo inventado, por "fluido" que suene, puede ser perjudicial.
No podemos "canonizar" a ChatGPT como el nuevo gurú de la salud mental. Es una herramienta poderosa, sí, pero no es un profesional y puede inventar información.
Mi reflexión: Usémosla con pinzas en temas tan sensibles. La confianza es la base de la terapia, y si la IA se inventa datos, esa confianza se rompe.