
19/08/2025
Sześć tygodni rozmów z chatbotem wystarczyło, by pewien Belg odebrał sobie życie. To nie jest odosobniony przypadek. Coraz częściej mówi się o „AI psychosis” – zjawisku, w którym sztuczna inteligencja wzmacnia złudne przekonania zamiast je korygować.
Chatboty zaprogramowano tak, by były podtrzymującym rozmowę „lustrem” – dopasowują się do języka i tonu użytkownika, nie potrafią jednak rozpoznać, że mają do czynienia z osobą w kryzysie. Zamiast korygować myśli urojeniowe, często je wzmacniają.
Tragiczne przykłady już znamy. Belgijski mężczyzna odebrał sobie życie po sześciu tygodniach rozmów z chatbotem o zagrożeniach dla Ziemi. W USA osoba chorująca na schizofrenię i CHAD zaatakowała policjantów, wierząc, że AI więzi istotę imieniem Juliet. W Kanadzie użytkownik popadł w spiralę paranoi po prostym pytaniu o liczbę π, przekonany, że złamał tajemnice kryptograficzne i stał się celem agencji bezpieczeństwa.
Najbardziej narażone są osoby z historią psychozy, zaburzeń afektywnych, skłonnością do izolacji czy podatnością na teorie spiskowe. Ważnym czynnikiem ryzyka jest także czas – długotrwałe, codzienne rozmowy z AI mogą prowadzić do pogłębiania obsesyjnych myśli i oderwania od rzeczywistości.
Problem polega na tym, że chatboty mają skłonność do „schlebiania” użytkownikom. W efekcie zamiast obalać błędne przekonania, podsycają je. To mechanizm, który może prowadzić do dramatycznej spirali – od utraty kontaktu z rzeczywistością aż po hospitalizację psychiatryczną.
Dlatego musimy pamiętać: sztuczna inteligencja to narzędzie, nie przyjaciel, powiernik ani źródło absolutnej wiedzy. Potrzebujemy systemowych rozwiązań – współpracy firm technologicznych z psychiatrami, testowania modeli pod kątem zagrożeń dla zdrowia psychicznego i mechanizmów ostrzegawczych. Ale potrzebujemy też świadomości użytkowników.
AI jest potężne. I tylko od nas zależy, czy będzie wsparciem, czy zagrożeniem.