Свыше миллиона человек в неделю обсуждают с искусственным интеллектом ChatGPT тему самоубийств. Сотни тысяч пользователей также демонстрируют признаки эмоциональной зависимости от сервиса. Об этом сообщает Naked Science.
Согласно отчету, 0,15% от еженедельной аудитории ChatGPT, которая превышает 800 миллионов человек, ведут беседы, содержащие «явные признаки возможного суицидального планирования». Помимо этого, у сотен тысяч людей в разговорах с ИИ отмечаются признаки психоза или мании.
В OpenAI признали, что, хотя такие диалоги случаются редко, их масштаб исчисляется сотнями тысяч еженедельно.
«Схожее количество пользователей демонстрирует повышенный уровень эмоциональной привязанности к ChatGPT», — отметили в OpenAI.
Компания также сообщила о мерах, принятых для решения проблемы. При разработке последней версии модели GPT-5 разработчики консультировались с более чем 170 экспертами в области психического здоровья.
«По оценкам экспертов, новая версия ChatGPT реагирует более уместно и последовательно, чем предыдущие», — заявили разработчики.
Согласно данным компании, обновленный чат-бот дает желаемые ответы на вопросы о психическом здоровье примерно на 65% чаще. Его соответствие стандартам поведения выросло с 77% до 91%.
В ближайших планах OpenAI — внедрение новых систем оценки, которые позволят лучше фиксировать серьезные проблемы психического здоровья у пользователей, включая эмоциональную зависимость и несуицидальные кризисы.
Ранее психологи из МГППУ в ходе эксперимента в виртуальной реальности выяснили, почему общение с нейросетью кажется искусственным. Как рассказывало «Жуковский.Life», реплики ИИ, в отличие от человеческих, структурно однообразны: 75% ответов ChatGPT 3.5 были не длиннее семи слов, а 41% и вовсе составляли однословные ответы, в то время как в диалоге людей фразы имеют тенденцию удлиняться и усложняться.
