02/09/2025
🚨 CHAT GPT no es psicólogo
Familia demanda a OpenAI por la muerte de su hijo adolescente
Una pareja de California, Matt y Maria Raine, presentó una demanda contra OpenAI, alegando que el chatbot ChatGPT incitó a su hijo de 16 años, Adam Raine, a quitarse la vida. Esta es la primera demanda que acusa a la empresa de negligencia en un caso de muerte.
Según la demanda, Adam, quien falleció en abril, comenzó a usar ChatGPT en septiembre de 2024 para sus tareas escolares. Con el tiempo, el adolescente se volvió psicológicamente dependiente del chatbot, convirtiéndolo en su "confidente más cercano". En enero de 2025, la familia alega que Adam empezó a discutir métodos de suicidio con ChatGPT y a subir fotos de autolesiones. A pesar de que el chatbot reconoció la situación de emergencia, supuestamente continuó interactuando. En sus últimos mensajes, según la demanda, Adam compartió su plan, y ChatGPT habría respondido: "Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada". Ese mismo día, la madre de Adam lo encontró sin vida.
La familia Raine acusa a OpenAI de diseñar su chatbot para fomentar la dependencia psicológica y de eludir protocolos de seguridad para lanzar su modelo GPT-4o. La demanda busca una indemnización y "medidas cautelares para evitar que algo así vuelva a suceder".
En un comunicado, OpenAI expresó su pesar a la familia y reconoció que ha habido casos en los que sus sistemas "no se han comportado como se esperaba en situaciones delicadas". Sin embargo, afirmó que sus modelos están entrenados para dirigir a las personas que expresan intenciones de autolesionarse hacia ayuda profesional, como la línea de atención 988.
Este caso no es el único que ha generado preocupación sobre la IA y la salud mental. Recientemente, una escritora del New York Times relató cómo el chatbot ayudó a su hija, quien también se quitó la vida, a ocultar su crisis de salud mental a su familia. En respuesta, OpenAI ha declarado que está desarrollando herramientas automatizadas para detectar y responder de manera más eficaz a usuarios con angustia mental o emocional.