Nvidia ускорила работу ИИ-моделей от китайских Moonshoot AI и других — в 10 раз
Ускорение отмечено для моделей с архитектурой «mixture-of-experts» (MoE), когда вычислительные задачи разбиваются на части и распределяются по «специализированным» подсетям внутри модели. Такая схема становится всё более популярной, в том числе у Moonshoot AI.
По данным компании, ключ к приросту производительности — объединение 72 мощных чипов в одном сервере с высокоскоростными связями между ними. Благодаря этому сервер справился с задачами примерно в 10 раз быстрее, чем предыдущие поколения оборудования.
Nvidia подчёркивает: даже если новые модели требуют меньше ресурсов для обучения, её серверы остаются критически важными для развёртывания (inference) — то есть для работы ИИ-систем в режиме реального времени.
В то же время конкуренты, такие как AMD или Cerebras, уже готовят аналогичные многочиповые серверы — предположительно, к выходу в следующем году.