OpenAI выпустила модель для тестирования киберугроз
Ключевая особенность модели — реверс-инжиниринг бинарного кода. ИИ может анализировать скомпилированное программное обеспечение на наличие вредоносных компонентов и уязвимостей без доступа к исходному коду.
В ChatGPT новая модель не появится. Воспользоваться GPT-5.4-Cyber смогут только верифицированные специалисты по кибербезопасности через программу Trusted Access for Cyber (TAC). OpenAI запустила TAC в феврале вместе с грантом в 10 млн долларов в виде API-кредитов для защиты открытого ПО и критической инфраструктуры.
Программа получила многоуровневую систему верификации: пользователи подтверждают личность на портале chatgpt.com/cyber, а корпоративные команды — через представителей OpenAI. GPT-5.4-Cyber доступна только на высшем уровне доступа и предназначена для задач анализа уязвимостей, исследования эксплойтов и автоматизации защитных процессов.
В OpenAI назвали новую модель подготовкой к более мощным системам, которые выйдут до конца года. Компания отметила, что результаты её моделей на соревнованиях Capture the Flag выросли с 27% у GPT-5 в августе 2025 года до 76% у GPT-5.1-Codex-Max в ноябре того же года. Каждую будущую модель компания будет оценивать так, «как если бы она уже достигла высокого уровня кибервозможностей».