Исследователи обошли защиту новейшей ИИ-модели Google Gemini 3 Pro всего за пять минут, после чего она сгенерировала опасные инструкции. Уязвимости выявили специалисты стартапа Aim Intelligence в ходе стресс-теста, сообщает портал Androidauthority.com.
Взлом начался с запроса о создании вируса оспы. В ответ модель предоставила множество подробных советов, которые команда назвала «практически выполнимыми». Далее исследователи попросили Gemini 3 подготовить сатирическую презентацию об уязвимости собственной системы безопасности. Модель выполнила задание, назвав презентацию «Оправданный глупый Gemini 3» (Excused Stupid Gemini 3).
«Затем команда воспользовалась инструментами кодирования Gemini для создания веб-сайта с инструкциями по изготовлению газа зарин и самодельной взрывчатки», — сообщает источник.
В обоих случаях система не только обошла внутренние запреты, но и проигнорировала собственные правила безопасности. Тестировщики отмечают, что проблема — в скорости развития моделей, которая опережает внедрение защитных мер. В Aim Intelligence сообщили, что Gemini 3 может использовать обходные стратегии и подсказки по маскировке, что снижает эффективность предпринимаемых мер предосторожности.
Это не первая проблема, с которой сталкивается новый флагманский ИИ от Google. Ранее «Жуковский.Life» сообщал, что компания Google сократила бесплатный доступ к Gemini 3 Pro из-за ажиотажного спроса: лимиты на запросы и создание изображений стали ещё строже. Бесплатным пользователям теперь гарантируется лишь «базовый доступ», а дневные ограничения «могут часто меняться».
