Главное Авторские колонки Вакансии Вопросы
95 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Глава Пентагона недоволен Anthropic: возможные серьёзные последствия для контрактов с ИИ

Министр обороны США Пит Хегсет выразил сильное недовольство деятельностью компании Anthropic, специализирующейся на искусственном интеллекте, и по сообщениям СМИ, Пентагон близок к разрыву деловых связей с фирмой.
Мнение автора может не совпадать с мнением редакции

Anthropic может быть официально признана «риском для цепочки поставок», что повлечёт серьёзные ограничения: любая компания, желающая работать с американскими военными, должна будет прекратить использование технологий Anthropic.

Особенность этой меры в том, что подобные санкции обычно применяются только к иностранным противникам США. Для компаний, сотрудничающих с Пентагоном, это означает необходимость подтвердить, что они не используют Claude — основную ИИ‑модель Anthropic — в своих рабочих процессах. С учётом широкого распространения Claude, который, по заявлениям компании, используется в восьми из десяти крупнейших американских корпораций, последствия могут затронуть многие фирмы.

Разрыв переговоров между Anthropic и Пентагоном связан с месяцами напряжённых дискуссий о том, на каких условиях армия может использовать Claude. Долгий пост генерального директора Dario Amodei о возможных ошибках ИИ вызвал недовольство внутри Пентагона. Источники сообщают, что высокопоставленные оборонные чиновники уже некоторое время были недовольны компанией и воспользовались случаем для публичного конфликта.

Интересно, что Claude — единственная модель ИИ, которая используется в классифицированных системах армии США, и при этом она признана мировой лидирующей для многих бизнес‑приложений. Пентагон открыто хвалил возможности Claude, которая также первой была интегрирована в закрытые сети ведомства.

Представитель Пентагона Шон Парнелл заявил: «Отношения Пентагона с Anthropic находятся на пересмотре. Наша страна требует, чтобы партнёры были готовы помогать нашим войскам побеждать в любых условиях. В конечном счёте, речь идёт о безопасности наших солдат и американского народа». Один из высокопоставленных чиновников отметил, что разрыв связей будет крайне сложным и болезненным процессом, и Anthropic «заплатит цену за то, что заставила нас действовать».

Сторона Anthropic называет переговоры «продуктивными» и утверждает, что компания стремится использовать передовой ИИ для национальной безопасности. Они напоминают, что Claude был первой моделью, применённой в классифицированных сетях, и подчёркивают, что ИИ способен масштабно анализировать публичную информацию в социальных сетях, форумах и новостных ресурсах, что закон разрешает собирать как «открытую разведку».

В прошлом году Anthropic подписала двухлетнее соглашение с Пентагоном, включая прототипы Claude Gov и Claude for Enterprise, и аналитики считают, что эти переговоры могут задавать тон будущим взаимодействиям Пентагона с OpenAI, Google и xAI, которые ещё не используются в классифицированных системах.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем