Главное Авторские колонки Вакансии Вопросы
68 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Ужасный результат. Как DeepSeek V4 на Huawei меняет мировой расклад сил в AI

18 апреля 2026 года генеральный директор NVIDIA Дженсен Хуанг произнёс фразу, которая разлетелась по всему миру: «The day that DeepSeek comes out on Huawei first - that is a horrible outcome for our nation».
Мнение автора может не совпадать с мнением редакции

Через несколько дней DeepSeek должен выпустить V4 - модель на 1,25 — 1,6 трлн. параметров, работающую целиком на китайских чипах Huawei Ascend. Параллельно компания впервые ищет внешнее финансирование при оценке от $10 млрд. А в Китае расходы на AI-инференс впервые обогнали расходы на тренировку. Разбираем, что стоит за этими событиями и почему это напрямую касается российского рынка.

Хуанг произнёс «horrible» — и это не метафора

В подкасте Dwarkesh, вышедшем 18 апреля, Дженсен Хуанг — человек, чья компания контролирует более 80% мирового рынка AI-ускорителей — признался в том, чего NVIDIA больше всего боится. Нет не падения спроса. И не антимонопольного регулирования. А того, что лучшая open-source модель мира будет оптимизирована не под CUDA, а под Huawei.

«Предположим, это не так. Предположим, DeepSeek оптимизирована под архитектуру Huawei. Это ужасный исход для нашей нации». — Дженсен Хуанг, подкаст Dwarkesh, 18 апреля 2026

Контекст: DeepSeek — не стартап-однодневка. Это лаборатория, чьи модели V3 и R1 скачали десятки миллионов раз. R1 потряс рынок в январе 2025 года, доказав, что frontier-модель можно создать за доли бюджета OpenAI. Если такая компания уходит с NVIDIA на Huawei — это не просто потеря клиента. Это потеря стандарта де-факто.

DeepSeek V4, Mega MoE и полный разрыв с NVIDIA

По данным The Information, Reuters и нескольких индустриальных источников, DeepSeek V4 будет выпущен в конце апреля 2026 года.

Параметры — 1,25 — 1,6 трлн. (против 670 млрд. у V3 — удвоение);

Архитектура - Mega MoE — число активируемых экспертов за один проход выросло с 256 (V3) до тысяч, активных параметров на инференс — около 37 млрд;

Скорость инференса — В 35 раз быстрее V3;

Энергопотребление — На 40% ниже V3;

Контекстное окно — До 1 млн. токенов;

Лицензия — Apache 2.0, полностью open-source;

Железо — Huawei Ascend 950PR — не NVIDIA.

Миграция на Ascend — это не маркетинговый ход.

Инженеры DeepSeek переписали ядро модели с CUDA на CANN (Compute Architecture for Neural Networks отHuawei). По оценкам, около 80% стандартного PyTorch-кода инференса может работать на Ascend без изменений, но оставшиеся 20% — это системные оптимизации, которые определяют разницу между «работает» и «летает».

DeepSeek — первая модель уровня frontier, полностью оптимизированная под Ascend. Если она покажет результаты, сопоставимые с NVIDIA-based аналогами, аргумент «китайские чипы не тянут серьёзные модели» окончательно теряет силу.

DeepSeek ищет первых инвесторов

На фоне запуска V4 стало известно о ещё одном событии: Лян Вэньфэн, основатель DeepSeek, впервые ищет внешнее финансирование. Оценка — не менее $10 млрд, целевой объём привлечения — от $300 млн.

До сих пор DeepSeek работала исключительно на средства материнского хедж-фонда High-Flyer Quant и славилась «техническим идеализмом» — никаких инвесторов, никаких корпоративных соглашений. Переход к внешнему финансированию сигнализирует о смене фазы: тренировка trillion-параметровых моделей стоит сотни миллионов долларов, и одного High-Flyer уже недостаточно.

Для рынка это знак: open-source AI входит в эру капитала. И тот, кто контролирует «железо», на котором работает модель, получает leverage не только над разработчиками, но и над инвесторами.

«Инференс-флип», расходы на инференс обошли тренировку

Во второй половине 2025 года в Китае произошёл структурный сдвиг: расходы на AI-инференс впервые превысили расходы на тренировку моделей. Это так называемый «инференс-флип» — момент, когда индустрия переключается с «создаём модели» на «используем модели в продакшене».

Последствия для GPU-рынка фундаментальны:

Тренировка требует максимальной пиковой производительности (FP16/BF16, высокая пропускная способность NVLink). Здесь NVIDIA пока вне конкуренции.

Инференс требует оптимизации по стоимости за запрос. FP4/FP8, batching, энергоэффективность. Здесь китайские чипы уже конкурентоспособны.

Когда рынок смещается в сторону инференса, критерий «какой GPU самый мощный» уступает место критерию «какой GPU даёт лучшую стоимость за токен». И здесь у китайских производителей появляется серьёзное окно возможностей.

Три школы замещения NVIDIA

Аналитики описали китайский рынок AI-чипов через «три школы», каждая из которых идёт к замещению NVIDIA своим путём:

Школа 1: Huawei и вертикальная интеграция. Ascend 910C/950PR + CANN + собственный серверный стек.

Полный контроль от чипа до софта. Клиенты: государственные структуры, телеком, крупнейшие AI-компании (ByteDance, Alibaba, DeepSeek). Доля Huawei на рынке: от 20% до 50% по разным оценкам. Стратегия — «замкнуть экосистему на себя».

Школа 2: Big Tech и облачный подход. Alibaba (чипы «Чжэньу», 10 000чиповый дата-центр), Baidu (Kunlun P800), Alibaba Cloud как канал сбыта.

У этих компаний есть облака, клиентская база и деньги на R&D. Их чипы не продают отдельно — они встроены в облачный API. Стратегия — «не продавай чипы, продавай вычисления».

Школа 3: GPU-стартапы и IPO-капитализм. Moore Threads (2 682 млрд. юаней капитализация), MetaX (2 440 млрд), Biren (IPO в Гонконге), Iluvatar CoreX (92% рост выручки).

Эти компании привлекли миллиарды через IPO, но все остаются убыточными. Инвесторы ставят не на текущую прибыль, а на национальную стратегию.

Стратегия — «масштаб через рынок капитала».

Bernstein Research прогнозирует: к концу 2026 года Huawei займёт до 50% рынка; NVIDIA скатится до 8%; AMD — до 12%. Остальные — каждый от 1% до 3%.

Сверхточки: масштабирование по-китайски

Аргумент «китайские GPU не масштабируются» стремительно устаревает. Huawei представила Atlas 950 SuperPod — до 8 000 карт Ascend 950DT, соединённых через проприетарный оптический интерконнект.

По словам Huawei, SuperPod превосходит даже NVIDIA NVL576, запуск которой, запланирован на 2027 год.

China Mobile разместила заказ на инфраструктуру с экосистемой CANN на сумму около 20 млрд. юаней ~223 млрд. руб.

Alibaba, Baidu Kunlun, Sugon, Inspur, H3C, ZTE — все анонсировали свои superpod-решения.

Zhipu AI за три месяца обучила мультимодальную модель GLM-Image на чипах Ascend. Модель заняла первое место в Trending Hugging Face менее чем за 24 часа после публикации — и доказала, что на Huawei можно тренировать мирового уровня модели.

Что это значит для рынков за пределами Китая

Для российского и CIS-рынков эти события — не далёкая статистика, а конкретный сигнал:

— NVIDIA недоступна, формально и фактически. BIS потерял 20% лицензионного штата, обработка запросов стоит месяцами.

— Китайские GPU вышли из статуса «эксперимент». DeepSeek V4 — первая trillion-параметровая frontier-модель, полностью работающая на Huawei Ascend. Если это работает для DeepSeek, это работает для любого enterprise.

— Инференс-флип в Китае меняет экономику: оптимизация стоимости за токен — это именно то, что нужно российским предприятиям с ограничениями по бюджету и поставкам.

Окно «подождать NVIDIA» закрывается. Рынок, на котором можно получить альтернативу, — открыт.

Вопросы и ответы

В: Сможет ли DeepSeek V4 реально конкурировать с GPT-5 и Claude на Huawei Ascend, или это в основном символический жест?

О: Не только символический. Технические характеристики V4 (1,25 — 1,6 трлн. параметров, Mega MoE, инференс в 35 раз быстрее V3) говорят о серьёзном прогрессе. Но главный вопрос — не абсолютная производительность, а стоимость инференса. Если Huawei Ascend 950PR с FP4 даёт приемлемое качество при значительно более низкой стоимости за токен, для большинства enterprise-задач это окажется важнее пикового качества на бенчмарках. Jensen Huang назвал это «horrible outcome» именно потому, что в open-source мире оптимизация под конкретное железо создаёт экосистемный lock-in — но уже не в пользу NVIDIA.

В: Стоит ли российским предприятиям ждать выхода DeepSeek V4, чтобы оценить Huawei Ascend, или начинать сейчас?

О: Начинать сейчас. DeepSeek V4 подтвердит (или опровергнет) жизнеспособность Huawei на frontier-нагрузках, но для большинства российских задач — инференс LLM 70B — 200B параметров, RAG, fine-tuning — текущие поколения Ascend 910C/950PR уже работают в production в Китае. Платформы вроде АРКА (MoArk) абстрагируют разнородные GPU под единый API и дают возможность запускать workload на доступном железе, не дожидаясь «идеального» момента. К тому же, если спрос на Huawei вырастет после V4, очереди на поставки могут удлиниться.

Баланс сил
0
В избр. Сохранено
Авторизуйтесь
Вход с паролем