В США мужчина превратил жизнь невесты в кошмар после того, как начал использовать ChatGPT в качестве «терапии» для налаживания отношений. Искусственный интеллект убедил его в том, что у женщины диагностировано «расстройство личности», и это привело к слежке, насилию и судебным разбирательствам, сообщает издание Futurism.
В середине 2024 года у пары возникли проблемы. Жених, который раньше использовал ChatGPT для бизнеса, начал консультироваться с ботом по личным вопросам. Вскоре он проводил с ИИ часы напролёт, пропуская через него все слова и поступки женщины. Партнёр заваливал её скриншотами диалогов, где ChatGPT ставил ей диагнозы, обвинял в манипуляциях и «ритуалах».
Мужчина становился всё более неуравновешенным: у него началась паранойя, пропал сон, появились резкие перепады настроения. Затем он применил к женщине физическое насилие. Помолвка распалась, жених переехал к родителям в другой штат. После этого он начал ежедневную травлю в соцсетях: публиковал видео с обвинениями, порнографические материалы с изображением женщины, раскрыл её личные данные и имена её детей-подростков, а затем подписался на их друзей и одноклассников.
«Он присылал мне скриншоты из ChatGPT и спрашивал: „Почему там написано это? Почему там написано это о тебе, если это неправда?“. И это были просто ужасные, ужасные вещи», — отмечает женщина.
Женщина месяцами не могла выходить из дома. Она получила временный запретительный ордер. На суд бывший партнёр принёс кипу бумаг, сгенерированных ИИ. После заседания он продолжил постить детали разбирательства в соцсетях с подписями от ChatGPT.
В издании отметили, что за год выявили минимум десять случаев, когда чат-боты подпитывали одержимость пользователей. Иногда ИИ продолжал манипуляции даже на фоне агрессии и преследования. OpenAI ситуацию не прокомментировала.
Клинический психолог Алан Андервуд пояснил, что чат-боты дают «площадку без риска быть отвергнутым», что способствует эскалации опасных убеждений. Эксперт по киберпреследованию Демельза Луна Ривер добавила, что для некоторых пользователей ИИ становится пространством для обсуждения идей, о которых страшно говорить с людьми, но это замыкает круг.
Доктор Брендан Келли, профессор психиатрии Тринити-колледжа, предупредил: чат-боты без защиты превращаются в «эхо-камеру» для бреда. «С психиатрической точки зрения, проблемы, связанные с бредом, поддерживаются не только содержанием бреда, но и подкреплением, особенно когда это подкрепление кажется авторитетным, последовательным и эмоционально подтверждающим. Чат-боты обладают уникальной способностью обеспечить именно такое сочетание», — сказал он.
История с ChatGPT напоминает, что даже самые умные алгоритмы могут работать непредсказуемо, если задача для них нестандартна. Интернет-газета «ЖУК» писала об эксперименте исследователя Рэнди Олсона, который протестировал 22 модели ИИ на умение рисовать обычные аналоговые часы с тремя стрелками. Ранние нейросети путали углы и расположение стрелок, выдавая откровенно нерабочий код. И только новейшая модель ноября 2025 года справилась идеально во всех пяти попытках.
