Российские учёные создали математическую модель, показывающую, как ИИ-алгоритмы теряют адекватность, обучаясь на собственных данных. Исследование объясняет природу «цифровых эхо-камер» и деградацию систем, сообщили «Жуковский Life» в пресс-службе МФТИ.
Алгоритмы, управляющие новостными лентами, кредитным скорингом и рекомендательными сервисами, активно влияют на среду, которую анализируют. Их прогнозы меняют поведение пользователей, а новые данные для обучения становятся искажённым отражением прошлых решений. Это создаёт замкнутую петлю обратной связи, ведущую к деградации.
«Мы обнаружили, что даже простые модели линейной регрессии при повторном обучении на своих выводах демонстрируют сложное динамическое поведение. В зависимости от параметров система неумолимо дрейфует либо к сужению кругозора и «эху», либо к полной потере качества», — пояснил Андрей Веприков, магистрант кафедры интеллектуальных систем ФПМИ МФТИ.
Исследователи с помощью теории динамических систем доказали два финальных сценария для ИИ в замкнутом контуре: коллапс вариативности (алгоритм становится сверхуверенным и игнорирует реальность) или хаотический развал с ростом ошибок. Теоретические выводы подтверждены вычислительными экспериментами.
Рост влияния ИИ на контент фиксируют и другие исследования. Как сообщало «Жуковский.Life», искусственный интеллект уже создаёт более половины всего нового интернет-контента. Доля машинных текстов резко выросла после появления ChatGPT и в настоящее время достигла плато.
