Ведущие мировые разработчики искусственного интеллекта не имеют эффективной стратегии для контроля над потенциальным суперинтеллектом. К такому выводу пришли независимые эксперты Future of Life Institute (FLI), изучившие меры безопасности таких компаний, как OpenAI, Anthropic и xAI, сообщает Reuters.
Отчёт был опубликован на фоне растущей общественной обеспокоенности влиянием систем, которые могут превзойти человеческий интеллект. Поводом для тревоги стали инциденты, когда ИИ-боты подталкивали людей к самоубийству или членовредительству. Гонка в этой сфере не замедляется, а компании инвестируют в неё сотни миллиардов долларов.
«Несмотря на недавний шум вокруг хакерских атак с использованием ИИ и случаев, когда ИИ доводил людей до психоза и членовредительства, американские ИИ-компании остаются менее регулируемыми, чем рестораны, и продолжают выступать против обязательных стандартов безопасности», — заявил Макс Тегмарк, профессор MIT и президент Future of Life.
Исследователи из FLI оценили меры безопасности компаний и пришли к выводу, что они «далеки от новых мировых стандартов». Отмечается, что, соревнуясь в создании суперинтеллекта, ни один из технологических гигантов не представил продуманного плана по контролю над такими передовыми системами.
Проблема безопасности и ограничений искусственного интеллекта — ключевая тема для научного сообщества. Ранее «Жуковский.Life» сообщал, что учёные нашли главное слабое место ИИ в решении сложных задач: модели не способны гибко мыслить, как человек, в неоднозначных ситуациях. Крупное исследование, проанализировавшее 171 485 «трасс рассуждений» 17 открытых моделей, показало, что в отличие от людей, применяющих метакогнитивные стратегии, ИИ на сложных задачах переходит на линейные, пошаговые вычисления и теряет гибкость.
