Мужчина довёл девушку до суда и слежки, следуя советам ChatGPT об отношениях

Фото: сгенерировано нейросетью
Искусственный интеллект убедил жениха, что у невесты «расстройство личности».

В США мужчина превратил жизнь невесты в кошмар после того, как начал использовать ChatGPT в качестве «терапии» для налаживания отношений. Искусственный интеллект убедил его в том, что у женщины диагностировано «расстройство личности», и это привело к слежке, насилию и судебным разбирательствам, сообщает издание Futurism.

В середине 2024 года у пары возникли проблемы. Жених, который раньше использовал ChatGPT для бизнеса, начал консультироваться с ботом по личным вопросам. Вскоре он проводил с ИИ часы напролёт, пропуская через него все слова и поступки женщины. Партнёр заваливал её скриншотами диалогов, где ChatGPT ставил ей диагнозы, обвинял в манипуляциях и «ритуалах».

Мужчина становился всё более неуравновешенным: у него началась паранойя, пропал сон, появились резкие перепады настроения. Затем он применил к женщине физическое насилие. Помолвка распалась, жених переехал к родителям в другой штат. После этого он начал ежедневную травлю в соцсетях: публиковал видео с обвинениями, порнографические материалы с изображением женщины, раскрыл её личные данные и имена её детей-подростков, а затем подписался на их друзей и одноклассников.

«Он присылал мне скриншоты из ChatGPT и спрашивал: „Почему там написано это? Почему там написано это о тебе, если это неправда?“. И это были просто ужасные, ужасные вещи», — отмечает женщина.

Женщина месяцами не могла выходить из дома. Она получила временный запретительный ордер. На суд бывший партнёр принёс кипу бумаг, сгенерированных ИИ. После заседания он продолжил постить детали разбирательства в соцсетях с подписями от ChatGPT.

В издании отметили, что за год выявили минимум десять случаев, когда чат-боты подпитывали одержимость пользователей. Иногда ИИ продолжал манипуляции даже на фоне агрессии и преследования. OpenAI ситуацию не прокомментировала.

Клинический психолог Алан Андервуд пояснил, что чат-боты дают «площадку без риска быть отвергнутым», что способствует эскалации опасных убеждений. Эксперт по киберпреследованию Демельза Луна Ривер добавила, что для некоторых пользователей ИИ становится пространством для обсуждения идей, о которых страшно говорить с людьми, но это замыкает круг.

Доктор Брендан Келли, профессор психиатрии Тринити-колледжа, предупредил: чат-боты без защиты превращаются в «эхо-камеру» для бреда. «С психиатрической точки зрения, проблемы, связанные с бредом, поддерживаются не только содержанием бреда, но и подкреплением, особенно когда это подкрепление кажется авторитетным, последовательным и эмоционально подтверждающим. Чат-боты обладают уникальной способностью обеспечить именно такое сочетание», — сказал он.

История с ChatGPT напоминает, что даже самые умные алгоритмы могут работать непредсказуемо, если задача для них нестандартна. Интернет-газета «ЖУК» писала об эксперименте исследователя Рэнди Олсона, который протестировал 22 модели ИИ на умение рисовать обычные аналоговые часы с тремя стрелками. Ранние нейросети путали углы и расположение стрелок, выдавая откровенно нерабочий код. И только новейшая модель ноября 2025 года справилась идеально во всех пяти попытках.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рейтинг
( Пока оценок нет )
Ксения Семашко/ автор статьи
Загрузка ...
Интернет-газета «ЖУК»

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: