редакции Выбор
У OpenAI появится независимый совет по безопасности, который может остановить выпуск ИИ-моделей
Американская корпорация OpenAI создаст независимый "Комитет по надзору совета директоров", который имеет полномочия задерживать запуск ИИ-моделей из-за опасений по безопасности. Об этом заявили в компании .
Комитет, возглавляемый Зико Колтером и включающий Адама Д’Анджело, Пола Накасоне и Николь Селигман, "будет получать брифинги от руководства компании об оценках безопасности для крупных выпусков моделей и будет, вместе с полным составом совета директоров, осуществлять надзор за запусками моделей, включая полномочия задерживать выпуск до тех пор, пока проблемы безопасности не будут решены". Полный совет директоров OpenAI также будет получать брифинги по вопросам безопасности и защиты.
Как считают эксперты, этот независимый совет OpenAI схож с наблюдательным советом Meta*, который рассматривает некоторые решения по политике контента и может принимать постановления, которым компания должна следовать. Ни один из членов этого совета не входит в совет директоров Meta*.
В OpenAI подчеркнули, что обзор, уже проведённый Комитетом по безопасности и защите, помог выявить "дополнительные возможности для сотрудничества в отрасли и обмена информацией для повышения безопасности индустрии ИИ. В компании также заявили, что будут искать "больше способов делиться и объяснять работу по безопасности" и "больше возможностей для независимого тестирования систем".
Корпорация Meta* признана в России экстремистской и запрещена.