Главное Авторские колонки Вакансии Образование
😼
Выбор
редакции
268 1 В избр. Сохранено
Авторизуйтесь
Вход с паролем

У OpenAI появится ‎независимый‎ совет по безопасности, который может остановить выпуск ИИ-моделей

Комитет ‎будет получать брифинги от руководства об оценках безопасности для крупных выпусков новинок

Американская корпорация OpenAI создаст независимый "‎Комитет по надзору совета директоров"‎, который имеет полномочия задерживать запуск ИИ-моделей из-за опасений по безопасности. Об этом заявили в компании .

Комитет, возглавляемый Зико Колтером и включающий Адама Д’Анджело, Пола Накасоне и Николь Селигман, "‎будет получать брифинги от руководства компании об оценках безопасности для крупных выпусков моделей и будет, вместе с полным составом совета директоров, осуществлять надзор за запусками моделей, включая полномочия задерживать выпуск до тех пор, пока проблемы безопасности не будут решены"‎. Полный совет директоров OpenAI также будет получать брифинги‎ по ‎вопросам безопасности и защиты‎.

Как считают эксперты, этот независимый совет OpenAI схож с наблюдательным советом Meta*, который рассматривает некоторые решения по политике контента и может принимать постановления, которым компания должна следовать. Ни один из членов этого совета не входит в совет директоров Meta*.

В OpenAI подчеркнули, что обзор, уже проведённый Комитетом по безопасности и защите, помог выявить "‎дополнительные возможности для сотрудничества в отрасли и обмена информацией для повышения безопасности индустрии ИИ‎. В компании также заявили, что будут искать "‎больше способов делиться и объяснять работу по безопасности"‎ и "‎больше возможностей для независимого тестирования систем"‎.

Корпорация Meta* признана в России экстремистской и запрещена.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем