Учёные выяснили, почему диалог с нейросетью кажется искусственным

Фото: сгенерировано нейросетью
Исследование МГППУ показало ключевые отличия в структуре общения.

Психологи из Московского государственного психолого-педагогического университета (МГППУ) выявили структурные различия между диалогами людей и беседами с нейросетью. Об этом сообщает пресс-служба вуза.

Эксперимент проходил в виртуальной реальности. Участники общались с аватаром, за которым стояла нейросеть ChatGPT 3.5, дообученная на данных реальной студентки. Для сравнения ученые использовали записи разговоров между людьми.

Анализ показал, что реплики нейросети в основном короткие и однообразные: 75% из них не длиннее семи слов, а 41% — однословные ответы. В человеческой беседе фразы, наоборот, удлиняются и разнообразятся.

«Также выявилась ярко выраженная асимметрия ролей: человек в основном задает вопросы (66% его реплик — вопросы), а нейросеть отвечает, почти не проявляя инициативу и почти не задавая собственных вопросов (применяет их лишь в трех процентов случаев). При этом переходы слов между собеседниками часто проходят с паузами, порой длительностью до трех секунд — в человеческой беседе это создало бы неловкость», — поясняется в исследовании.

Также собеседники сталкивались с коммуникативными сбоями, когда ответ ИИ не соответствовал теме. Ученые связывают это с принципом работы нейросети, которая предсказывает слова на основе статистики, а не «понимает» смысл.

По мнению авторов работы, результаты важны для создания более естественных диалоговых систем в будущем. Перспективой называется повторение экспериментов на более продвинутых моделях, таких как GPT-4o.

Ранее в зарубежных СМИ появлялись сообщения о случаях негативного влияния продвинутых ИИ на психику пользователей. Ранее «Жуковский.Life» рассказывало истории жителей США и Канады, у которых длительное общение с ChatGPT привело к формированию опасных иллюзий, финансовым потерям и серьёзным психологическим проблемам, что позже вылилось в создание сообщества поддержки для пострадавших. Разработчик, компания OpenAI, в ответ на подобные инциденты заявила о разработке новых защитных мер, включая системы родительского контроля и отслеживания стресса.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рейтинг
( 1 оценка, среднее 5 из 5 )
Виолетта Биенко/ автор статьи
Загрузка ...
Жуковский Life

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: