Искусственный интеллект создал новый барьер для языков программирования. Теперь их судьба зависит не только от количества библиотек или ответов на Stack Overflow, но и от того, насколько хорошо их понимают ИИ-ассистенты, рассказал разработчик Эдгар Луке в своём блоге.
Возник замкнутый круг: моделям нужны обучающие данные на основе реального кода, код появляется только при хорошей поддержке ИИ, а поддержка ИИ требует данных. Пайплайны обучения контролируют крупные компании — OpenAI, Anthropic и Google, которые в первую очередь заточены под популярные языки. Писать код на малопопулярном языке с помощью ИИ-ассистента стало сложно: модели выдумывают несуществующие API, предлагают неправильные идиомы и мешают работе.
«Раньше барьеры для молодых языков были понятными — нет библиотек, нет ответов на Stack Overflow, нет вакансий. Но они преодолевались линейно: больше пользователей → больше экосистема → ещё больше пользователей. Rust, Go и Kotlin прошли этот путь», — написал Эдгар Луке.
Автор видит несколько возможных выходов: модели, способные рассуждать о грамматиках вместо запоминания паттернов; Language Server Protocol, дающий ИИ структурированную информацию о типах; синтетические данные и машиночитаемые спецификации языков. Есть и ниши, где автокомплит менее критичен — например, встраиваемые системы и формальная верификация. Главный парадокс в том, что самая прорывная технология может заморозить ландшафт языков: новые языки конкурируют не только с Python и Rust, но и со всем объёмом данных, на которых учат нейросети.
Пока разработчики спорят о будущем языков программирования, учёные и преподаватели в России уже активно встроили ИИ в повседневную работу. Интернет-газета «ЖУК» сообщала, что 66% сотрудников российских вузов постоянно используют нейросети. Исследование ИТМО, «Яндекс Образования» и Yandex Cloud показало: 84% из них заметили, что ИИ ускоряет поиск литературы и обработку данных, а 58% — что подготовка к занятиям с алгоритмами стала проще и быстрее.
