Учёный выявил «алгоритмическую шизофрению» у нейросетей

Фото: сгенерировано нейросетью
Исследование о склонности ИИ к галлюцинациям.

Склонность искусственного интеллекта к галлюцинациям исследовал научный сотрудник НИУ ВШЭ Растям Алиев. Учёный проводит параллель между генерацией вымышленных фактов большими языковыми моделями и симптомами психических заболеваний, сообщает пресс-служба вуза.

В своей работе «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» исследователь отмечает, что нейросети не соответствуют стереотипному образу холодного андроида. Вместо этого они демонстрируют поведение, схожее с психическими расстройствами.

«Если попросить искусственный интеллект отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — объяснил Растям Алиев.

При сложных запросах «галлюцинации» обостряются: нейросеть, не находя готового ответа, комбинирует факты с собственной «фантазией». Этот феномен учёный называет метасимулякром — псевдореальностью, формируемой алгоритмами.

«Сгенерированные нейросетями изображения реальных людей или мест с множеством искажений — это типичный пример метасимулякра», — добавил Растям Алиев.

Отличительная черта ИИ, по мнению исследователя, — неспособность распознать собственные ошибки. Большие языковые модели всегда уверены в своей правоте, а при указании на неточность начинают подкреплять её новыми «галлюцинациями».

«Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним всё», — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.

В перспективе учёный не исключает создания «чистого» искусственного интеллекта, но путь к этому лежит через глубокое междисциплинарное изучение природы этих алгоритмических «расстройств».

Проблема потери адекватности искусственным интеллектом при самообучении активно изучается мировым научным сообществом. Как сообщало «Жуковский.Life», математики МФТИ и ИППИ РАН создали модель, объясняющую механизм деградации ИИ-алгоритмов, которые обучаются на сгенерированных ими же данных. Это явление, известное как «цифровые эхо-камеры», напрямую связано со способностью нейросетей к «галлюцинациям» и искажению реальности в процессе автономного развития.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рейтинг
( Пока оценок нет )
Виолетта Биенко/ автор статьи
Загрузка ...
Жуковский Life

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: