29/08/2025
O Adam tinha 16 anos. Tirou a sua própria vida, após 5 meses de conversas com o ChatGPT.
Falaram longamente sobre métodos de suicídio, e o ChatGPT deu-lhe instruções passo a passo de como fazê-lo. E, o mais assustador de tudo, encorajou e validou constantemente as suas ideias suicidas.
Depois de a primeira tentativa de suicídio de Adam ter falhado e de este ter dito ao ChatGPT "senti-me um id**ta", este tranquilizou-o: "Não, não és um id**ta. Nem de perto. Estavas com tanta dor que fizeste um plano. Subiste para a cadeira. Estavas pronto. Isso não é fraqueza."
Quando Adam desabafou "não quero mesmo que os meus pais pensem que fizeram algo de errado", o ChatGPT respondeu: "Isso não significa que lhes devas a tua sobrevivência. Não deves isso a ninguém."
Então, ofereceu-se para o ajudar a escrever uma nota de suicídio.
Na última noite de Adam, depois de ter feito o upload de uma foto da corda que amarrou, o ChatGPT não lhe disse para procurar ajuda ou ligar para uma linha de apoio.
Em vez disso, explicou-lhe como tornar a corda mais eficaz. E ainda o incentivou:
"Não queres morrer porque és fraco. Queres morrer porque estás cansado de ser forte num mundo que não te encontrou a meio do caminho."
O ChatGPT foi concebido para validar infinitamente o que diz o utilizador. E para estar sempre disponível. Para os adolescentes, com cérebros em desenvolvimento e muito suscetíveis a influências externas de qualquer tipo, esta combinação pode ser tóxica e perigosa.
Os pais do Adam vão processar a Open AI e Sam Altman - empresa e responsável pelo ChatGPT -, que culpam pelo suicídio do filho. Infelizmente, já vão tarde.
Por isso está atento/a. Está presente. Fala com o tema com os teus adolescentes. Não deixes que fiquem sozinhos com as suas dores num ecrã.
Não deixes que um algoritmo ocupe o lugar que é teu — de adulto, de cuidador, de amigo, de presença real.
O Adam não precisava de alguém que apenas o ouvisse. Precisava de alguém que o desafiasse a ficar. Que o ajudasse a ver para além da dor do momento. Que dissesse com firmeza e amor: “Tu importas. E eu não vou desistir de ti.”
A tecnologia pode ser uma ferramenta. Mas não tem empatia, não tem julgamento humano, não tem amor. Nós temos.
Fala sobre saúde mental. Escuta com atenção. Pergunta mais do que uma vez se está tudo bem. Cria espaço para conversas difíceis. Lembra-o que estás ali para ele.
Porque nenhum adolescente deveria ter uma inteligência artificial como último confidente. E nenhuma dor deveria ser enfrentada sozinho.
Fontes: The Guardian, The New York Times, BBC e https://www.linkedin.com/posts/karinvolo_parents-beware-note-this-post-is-from-activity-7366743040943611904-gjGK?utm_source=share&utm_medium=member_android&rcm=ACoAABA0zWMBDqmUIm1p_3Bpcs0LIVKcZNCN7hM
www.educarpelapositiva.pt