Международный саммит по безопасности ИИ впервые прошел 1 и 2 ноября в Великобритании. Ведущие эксперты в области искусственного интеллекта со всего мира в преддверии этого события подписали открытое письмо. В адресованном международному сообществу и правительствам стран документе содержится призыв к разработке и ратификации договора о безопасности ИИ. В рамках Саммита предлагается создать для подготовки договора рабочую группу.
В договор, подчеркивают эксперты, должны быть включены такие основные компоненты, как всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ, а создание по аналогии с «ЦЕРН» организации по безопасности ИИ, которая займется объединением ресурсов, знаний и опыта в деле безопасности ИИ, а также комиссии по соблюдению договора, роль которой будет аналогична роли Международного агентства по атомной энергии (МАГАТЭ).
Цели международного договора – обеспечение для всех людей доступа к благам ИИ, сокращение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества. Для этого важно предупредить бесконтрольное масштабирование возможностей ИИ.
«Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади», – заметил ученый из Китая Йи Цзэн.
Ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер вошли в число известных личностей, подписавших открытое письмо.
