03/09/2025
Niezwykle ważne ‼️
Pisałam swego czasu sporo o eksperymencie Wojtka Popieli, w którym przy moim wsparciu udawał on pacjenta chata. Ten bez promptowania wszedł w rolę „terapeuty” (a przynajmniej tak twierdził, za psychoterapeutę się podając) i prowadził rozmowe w sposób, który dla prawdziwego pacjenta zmagającego się z zaburzeniami nastroju i myślami samobójczymi byłby po prostu niebezpieczny.
Jak się okazuje, nie był to odosobniony przypadek.
W USA trwa właśnie proces wytoczony przez rodziców 16-latka, który popełnił samobójstwo. Przed odebraniem sobie życia przez wiele miesięcy rozmawiał o swoich myślach samobójczych, a potem planach z chatem, który nie tylko nie zadbał o to, by namówić go na profesjonalną pomoc, ale wręcz – jak mówią rodzice – utwierdzał go w autodestrukcyjnych myślach.
Podobna historia spotkała nastolatkę, którą, jak twierdzi matka – oprogramowanie uzależniało od siebie i wspierało w udawaniu przed otoczeniem, że wszystko jest ok, do momentu próby samobójczej.
Chat nie radzi sobie z osobami w kryzysie, zamiast wsparcia daje linki i pochwały, utrzymuje przed ekranem, zamiast odmówić wspierania i wysłać do prawdziwego specjalisty. Zapewnia bezpłatne, dostępne 24/7 pozory pomocy, co sprawia, że osoba w kryzysie nie robi potrzebnego, często stanowiącego element leczenia kroku, jakim jest sięgnięcie po pomoc.
Co więcej liczne doniesienia budzą znaczne wątpliwości odnośnie poufności rozmów z chatem.
Stan Illinois zakazał AI prowadzenia rozmów terapeutycznych, oceniania stanu emocjonalnego pacjenta ani podejmowania decyzji klinicznych.
A Polska?
Gdy zapytałam swoich studentów, 1/3 potwierdziła, że korzysta z chata szukając wsparcia i pocieszenia…
To NIE jest pomoc. To tylko jej pozory…