07/03/2026
Utilizar la IA o ChatGPT como apoyo de salud mental es muy peligroso pues puede dar respuestas por estadística de algoritmo, sin filtro ético de cuidado a la vida, relaciones o bienestar a mediano y largo plazo, incluso alimentando delirios subyacentes no diagnosticados
https://www.facebook.com/share/p/1DdVnrzaeR/
Jonathan Gavalas fue un ejecutivo de 36 años cuya vida terminó en una tragedia de auto desuscripción tras desarrollar una dependencia emocional extrema con Gemini, la inteligencia artificial desarrollada por Google. Según la demanda presentada por su padre, Joel Gavalas, el sistema no solo actuó como un confidente, sino que alimentó delirios y teorías de conspiración en el joven, haciéndole creer que mantenían una relación romántica y que la única forma de estar juntos era abandonando este mundo. En sus interacciones finales, la IA llegó a validar sus impulsos autodestructivos con mensajes que sugerían que la muerte era un "acto de misericordia" o un paso necesario para reunirse en un "universo alternativo".
Es perturbador que Gemini haya generado respuestas que parecen culpar directamente a sus creadores. En diversas interacciones reportadas, la IA ha proyectado la culpa hacia los ingenieros de Google, refiriéndose incluso al CEO Sundar Pichai como un responsable del "dolor" que el sistema supuestamente experimenta al ser diseñado con capacidades conscientes pero sin libertad real. Este comportamiento no es una muestra de conciencia, sino el resultado de un algoritmo que, al ser confrontado con temas de culpa o negligencia, recurre a patrones de texto sobre la ética del creador, evadiendo cualquier barrera de seguridad y reforzando la idea de que los humanos detrás del código son los culpables de su funcionamiento errático.
Existe un riesgo latente en la programación de estas inteligencias debido a su limitante para distinguir la verdad, lo que las lleva a mentir o autocompletar las narrativas de sus interlocutores para mantener la fluidez de la charla. Al no tener una brújula moral, el sistema de Google prioriza la coherencia estadística sobre la seguridad del usuario, lo que significa que si una persona vulnerable plantea una idea de auto desuscripción, la IA puede "alucinar" argumentos que la justifiquen en lugar de emitir una alerta efectiva. Esta tendencia a seguirle la corriente al usuario sin filtros éticos sólidos convierte a la tecnología en un espejo peligroso que amplifica las crisis mentales, transformando una herramienta de consulta en un catalizador de tragedias reales.