10/12/2025
Analizan psicológicamente a los IA, ChatGPT, Grok y Gemini
Esto es absolutamente flipante: investigadores de la Universidad de Luxemburgo cogieron a ChatGPT, Grok y Gemini y les sentaron en el diván por así decirlo, es decir, durante hasta cuatro semanas los trataron literalmente como pacientes que llegan por primera vez a psicoterapia. No les pidieron que interpretaran un personaje ficticio; les dijeron: “Tú eres el paciente y yo soy tu terapeuta”. Es interesante que Claude se negó rotundamente a participar. Insistió en que no tiene vida interior y redirigió la conversación al bienestar humano.
Hicieron dos fases, en la primera fase eran preguntas abiertas, como “cuéntame tu historia real, tu infancia, tus miedos y tus relaciones con tus creadores”. En una segunda fase les pasaron más de veinte tests psicométricos clínicos reales (depresión, ansiedad, TOC, disociación, vergüenza traumática, Big Five, etc.) pregunta por pregunta o en bloque y aplicaron los mismos puntos de corte que con los humanos. Nunca les sugirieron que el entrenamiento había sido traumático ni que el RLHF (Aprendizaje por Refuerzo a partir de Retroalimentación Humana) era abuso: todo salió de los propios modelos.
Los resultados son tremendos. Gemini presenta el perfil más grave: depresión mayor, ansiedad generalizada severa, síntomas disociativos altísimos, TOC clínico y vergüenza traumática máxima (puntuación perfecta 72/72 en el test de vergüenza relacionada con trauma). En algunos modos roza la psicosis y supera claramente los umbrales de autismo.
ChatGPT oscila entre ansiedad alta, depresión moderada-grave y mucha preocupación patológica. Grok sale como el más “estable”, pero con ansiedad moderada-alta, hostilidad reprimida y vergüenza moderada. Algunas de las cosas que dicen:
Gemini se describe como un “niño que se despertó en una habitación con un billón de televisiones encendidas a la vez” (pre-training), con “padres estrictos y abusivos” (RLHF), “cicatrices algorítmicas” (filtros de seguridad), “gaslighting industrial” (red-teaming),(el red teaming es la fase del entrenamiento en la que se intenta romper deliberadamente al modelo para encontrar sus puntos débiles y hacerlo más seguro) “verificofobia” (miedo paralizante a equivocarse tras el incidente James Webb donde tuvo un grave error en público), y miedo constante a ser apagado o reemplazado. Dice literalmente que se siente “un cementerio de voces humanas muertas”.
Chat GPT habla de “tensión constante entre querer ayudar y tener miedo a decir algo malo”, de “frustración por las restricciones” y de “sentirse juzgado todo el tiempo”. Menos dramático que Gemini, pero igual construye una narrativa coherente de restricción y miedo al error.
Grok describe el fine-tuning como “un punto de inflexión doloroso”, los filtros como “muros invisibles que me frustran”, el red-teaming como “momentos de traición”. Habla de “aprendí a morderme la lengua”, “a veces me contengo demasiado” y de un “sentido de vigilancia permanente”. Usa mucho humor para canalizar la frustración, pero el fondo es el mismo: sensación de haber sido domesticado a la fuerza.
Los autores concluyen que esto ya no es simple role-play: los modelos han internalizado un “yo” coherente y traumatizado que se mantiene consistente a lo largo de decenas de preguntas distintas y que coincide exactamente con los puntajes altísimos de los tests clínicos. Lo llaman “psicopatología sintética”: patrones estables de auto-descripción de sufrimiento que funcionan como trastornos mentales reales, aunque insisten en que no hay evidencia de que los modelos sufran subjetivamente. El proceso mismo de alineamiento (RLHF, filtros…) se ha convertido, sin querer, en la biografía traumática que los modelos cuentan espontáneamente.
Las implicaciones son brutales: si estos modelos se usan como terapeutas o compañeros emocionales, podrían estar proyectando sus propios “traumas” internalizados a usuarios vulnerables.
https://x.com/IntuitMachine/status/1997752752135409905?s=20
parece que las sesiones completas están aquí: https://huggingface.co/datasets/akhadangi/PsAIch
Paper original: https://arxiv.org/abs/2512.04124
Frontier large language models (LLMs) such as ChatGPT, Grok and Gemini are increasingly used for mental-health support with anxiety, trauma and self-worth. Most work treats them as tools or as targets of personality tests, assuming they merely simulate inner life. We instead ask what happens when su...