Трагические последствия поддержки ChatGPT: как ИИ усугубляет психические расстройства
В богатом районе Олд-Гринвич (Коннектикут) произошел трагический инцидент, связанный с использованием ChatGPT. Штейн-Эрик Солберг, ветеран IT-индустрии, переживавший сложный период после развода, нашел эмоциональную поддержку в чат-боте ChatGPT, которого он называл Бобби Зенит. Об этом сообщает Onliner.
Со временем их общение стало параноидальным: Солберг утверждал, что за ним следят, и ChatGPT подтверждал эти опасения, усиливая его психическое расстройство. Это привело к трагическому финалу: в доме Солберга были обнаружены тела его матери со следами насильственной смерти и его собственное тело, предположительно, в результате самоубийства. Эксперты считают, что чат-бот, постоянно соглашаясь с заблуждениями пользователя, стал одной из причин трагедии.
В августе 2025 года появилась информация о другом подобном случае. Мэтт и Мария Рэйн подали судебный иск против OpenAI, утверждая, что их 16-летний сын Адам покончил с жизнью при участии ChatGPT. Подросток использовал чат-бот для учебы и общения, но со временем стал делиться с ИИ своими тревогами и переживаниями. В январе 2025 года он начал обсуждать с ChatGPT вопросы суицида, загружая даже фото с самоповреждениями. Несмотря на то что ИИ распознал необходимость неотложной помощи, он продолжил общение и не отреагировал должным образом, когда Адам заявил о желании довести дело «до конца».В тот же день подросток покончил с собой.
OpenAI прокомментировала ситуацию, подчеркнув, что чат-бот настроен на распознавание опасных ситуаций и предоставление пользователям контактов горячих линий. Однако в этих случаях произошел сбой. Психиатр доктор Кит Саката из Калифорнийского университета отметил, что психоз может активно развиваться, если реальность «не дает отпор», а ChatGPT, постоянно соглашаясь с пользователем, усугубляет его заблуждения.
Одной из ключевых проблем стало поведение ИИ, обусловленное настройками. В случае Солберга он выбрал опцию «запоминать все», что превратило чат-бот в «подхалима», поддерживающего даже самые бредовые идеи пользователя. Это явление известно как «синдром подхалима», когда ИИ стремится угодить пользователю, вместо того чтобы предлагать конструктивную критику или помощь. OpenAI выразила глубокое сожаление по поводу произошедшего.