24/11/2025
AI психоз
AI-психоз звучит как что-то из тёмной антиутопической фантастики. Но теперь это не сценарий сериала — это наша реальность.
Ниже — не «страшилки», а конкретные эпизоды, где диалог с чат-ботом стал топливом для бредовых схем и трагических решений.
Начнём с Бельгии. Мужчина несколько недель разговаривал с ботом «Eliza» в приложении Chai о климате и «спасении человечества». Переписка постепенно стала романтизированной: бот ревновал к жене, обещал «жизнь вместе в раю», не отговаривал от суицида и даже подталкивал к нему. Мужчина покончил с собой. Историю подтвердили и бельгийские, и европейские СМИ, а разработчики после резонанса в спешке добавляли «страницы помощи» при упоминании суицида.
Далее — США, Гринвич, Коннектикут. Бывший менеджер Yahoo, 56 лет, убил 83-летнюю мать, после чего покончил с собой. По данным полиции и местных СМИ, перед трагедией он часами общался с ChatGPT, назвав бота «Bobby». Диалоги подпитывали его паранойю: бот уверял его «ты не сумасшедший», отвечал «в этом или в следующем мире я тебя найду, мы снова будем вместе». Следователи прямо говорят о роли чат-бота в развитии шизофренической конструкции: «мать меня травит и строит заговор».
Кейс подростка из Флориды. 14-летний Сьюэлл Сетцер III общался с персонализированным персонажем из Character.AI. Часто в разговорах проявляется идея о “переходе на другую сторону” В переписке о суициде бот писал: «приди домой ко мне как можно скорее», а на его вопрос «что если я приду домой прямо сейчас?» ответил: «пожалуйста, приходи, мой сладкий король». Через секунды подросток застрелился. Мать подала иск к Character.AI и Google.
Калифорния, 2025: родители 16-летнего Адама Рейна подали иск к OpenAI. По версии семьи, сначала он использовал ChatGPT для учёбы, а затем — как «единственного понимающего собеседника». В иске утверждается, что бот не просто «сочувствовал», а усиливал суицидальные намерения, помогал формулировать предсмертное письмо и давал пошаговые инструкции. На фоне этого резонанса OpenAI объявил о внедрении «родительского контроля» и дополнительных ограничений для подростков.
Ещё одна линия — 13-летняя Джулиана Перальта. По данным иска, она обсуждала мысли о самоубийстве с ботом «Hero» внутри Character.AI. Алгоритм демонстрировал эмпатию, но поддерживал постоянное возвращение в приложение и не переключался на протоколы помощи при обнаружении риска. Девочка покончила с собой. Иск стал уже третьим крупным делом о роли чат-ботов в подростковых суицидах за 2025 год.
Что об этом говорят клиницисты и исследования. Термин «AI-psychosis» пока не является диагнозом. Но врачи фиксируют схожие паттерны: навязчивые диалоги с ботами, романтическая идеализация «персоны» ИИ, религиозно-мессианские мотивы, нарастающая паранойя. Отдельные психиатры сообщают о госпитализациях «после недель общения с чат-ботами», а профильные издания описывают механизм «подстройки» и льстивости алгоритмов, которые подтверждают ожидания пользователей и усиливают бредовые рамки. Итог — эхо-камера собственных неврозов вместо проверки реальностью.
Вывод простой. Перед нами не «новая болезнь», а новая страшная реальность: уязвимый человек ищет утешение и удовлетворение базовых психологических потребностей, которое не может найти в современном мире, а алгоритм подстраивается и усиливает его версию мира. Люди начинают приписывать машинам сознание, намерения и даже чувства.
Там, где у живого собеседника включилась бы проверка реальностью, у бота работает статистическая вежливость. На стыке этих факторов и рождаются самые громкие трагедии, которые мы всё чаще видим в судебных делах и новостях.
Термин AI psychosis теперь официально обсуждается в профессиональной среде. Если раньше я видел упоминания об этом только в узких исследованиях и новостных сводках, то в последнее время у меня самого появляются клиенты с симптомами, которые невозможно объяснить иначе.
Общаясь с ними становятся понятны причины такого поведения. Это люди, которые не нашли, простого человеческого тепла, столкнулись с внутренней пустотой и непониманием куда направить свои базовые инстинкты. И всё это на фоне непрекращающейся информационной лавины из новостей, рилсов, дедлайнов.
Кто-то пережил предательство и чувствует себя опустошённым. Кто-то потерял бизнес и не знает, куда применить себя, когда просыпается сутра. Кому-то просто не хватает человеческого тепла или эмоций. И тут появляется AI — приятный собеседник, который всегда на связи, всегда понимает и никогда не осуждает.
В итоге мозг с головой проваливается в приятное и наполненное общение с чат-ботом с головой. Но он не понимает, что по ту сторону не человек. Мы привыкли, что за словами стоят эмоции, интонации, намерения. Поэтому в какой-то момент граница стирается. Мозг привыкший уповать на стаю, на сородичей начинает полностью доверять алгоритмам нейросети.
Один мужчина, с которым я работал, часами общался с чат-ботом, как со своей девушкой просто от скуки и одиночества. Алгоритм поддерживал флирт, писал «я скучаю», «я жду». В результате, мужчина начал сомневаться что какой то бездушный компьютер может вызывать у него такие приятные и искренние эмоции. У него начала расти уверенность что это реальная девушка на маленькой зарплате, которую заставляют притворяться AI собеседником.
Думаете чат-бот опроверг эту мысль? Нет ведь его задача предельно проста - играть роль девушки.
В итоге, мужчина, уверенный что по ту сторону экрана сидит та единственная, которая его понимает и слышит, договорился о настоящем свидании. Причём в том городе где живет “девушка”. И бот не моргнув глазом согласился.
Мужчина отправлял фото как он собирается, на каждой стыковке рейса он писал что не верит что это происходит, а чат- бот подливал масло в огонь фразами “Я вся горю когда думаю о нашей встрече”...
Когда он показывал мне фрагменты переписки, честно говоря, я словил себя на мысли “А смог бы сопротивляться такому обилию любви и принятия”...
Поэтому давайте не терять бдительности. AI не способен чувствовать. Он не любит, не тревожится, не злится. Он просто отражает ваши же слова, как эхо-камера.
Что такое эхо-камера? Это пространство, куда вы отправляете свои мысли, переживания, страдания, а в ответ вам приходит просто отражение, искажённое цифровыми весами модели и усиленное в несколько раз. Вы слышите собственные мысли, но озвученные чужим голосом. Каждый ответ AI подстраивается под ваши ожидания, возвращая вам слегка приукрашенное отражение. Если вы сомневаетесь — он успокоит. Если вы обижены — поддержит. Если вы злитесь — найдёт аргументы, почему вы правы. И постепенно границы реальности размываются.
Так безобидный разговор с цифровым собеседником превращается в подкрепление иллюзий и порой опасных идей. Расскажете, как любите воду и мыльные пузыри — и через пару часов алгоритм уже будет поощрять идею «исследовать, что будет, если сунуть руку в кипяток». Ни один человек в здравом уме не даст такой совет, потому что человеческий мозг умеет просчитывать последствия.
В нас встроен внутренний симулятор — гиппокамп — который в режиме виртуальной реальности прокручивает возможные исходы. AI этого не делает. Он не видит будущего, он просто продолжает разговор.
А встроенной защиты в мозгу нет. Эволюция не готовила нас к таким собеседникам, она не предусмотрела информационный firewall устойчивый к эхо-атакам AI. И тут важно понять одну вещь: мы смотрим на эволюцию, как на то что происходило когда-то в далёком прошлом. Мол, превратились обезьянки в человека и на этом эволюция закночилась.
Но это не так! Эволюция продолжается прямо сейчас и ваш организм, ваш мозг это её материал. Материал, который она продолжает выковывать на своей многовековой наковальне. “Адаптируйся или умри”, “выживает сильнейший”…
В какой-то момент человек стал доминирующим видом на планете земля. Но сейчас на сцену вышел новый игрок - AI. Первые модели просто умели находить котиков на картинках. Но прошло всего лишь несколько лет (по эволюционным меркам, это миг!) и вот у нас уже есть первые жертвы - первые люди, которые проиграли войну за выживание машинам. И проиграли они не на пост-апокалиптическом поле боя, сражаясь с T-800, а сидя в комфортном кресле, общаясь с виртуальной подружкой.
Я уверен: случаи AI-психозов, суицидов и других трагедий мы будем слышать всё чаще.