Учёные ускорили сжатие нейросетей в 500 раз методом из физики

Фото: Анастасия Сибирякова
Российские исследователи нашли способ быстро уменьшать сложные модели ИИ.

Учёные Высшей школы экономики в Санкт-Петербурге разработали метод, который ускоряет оптимизацию нейронных сетей до 500 раз. В основе подхода лежат законы статистической физики, сообщили «Жуковский.Life» в пресс-службе НИУ ВШЭ.

Исследователи под руководством Сергея Кольцова научились сжимать нейросети быстро и без потери качества. Это особенно актуально для банков, медицинских учреждений и госорганов, где данные нельзя передавать в облака и нужны компактные решения для локального оборудования.

«Наша точка зрения позволяет посмотреть на нейронную сеть как на статистическую систему. Это раздел науки, изучающий поведение объектов с огромным числом элементов: от молекул газа до магнитных материалов. Нейронная сеть с миллиардами параметров оказалась похожа на такие структуры», — рассказал профессор департамента информатики НИУ ВШЭ — Санкт-Петербург Сергей Кольцов.

Проблема в том, что крупные модели вроде GPT содержат сотни миллиардов параметров и требуют гигабайты памяти. Классические методы сжатия требуют множества долгих экспериментов. Новый метод, проверенный на моделях от 7 до 10 миллиардов параметров, позволяет находить оптимальный размер нейросети в сотни раз быстрее.

Ранее учёные из Университета Лафборо создали так называемый транснейрон — единый искусственный нейрон, способный имитировать работу разных областей мозга, включая зрение, движение и планирование. Это открытие считается важным шагом на пути к созданию роботов, обладающих человеческим восприятием и способных более гибко взаимодействовать с окружающим миром.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рейтинг
( Пока оценок нет )
Виолетта Биенко/ автор статьи
Загрузка ...
Интернет-газета «ЖУК»

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: