редакции
Amazon наращивает инвестиции в собственные ИИ-чипы
Чипы Trainium ориентированы на обучение крупных моделей машинного обучения, включая генеративные ИИ-системы, тогда как Inferentia используется для инференса — быстрого выполнения уже обученных моделей в реальных сервисах. Amazon утверждает, что их использование может существенно снизить стоимость вычислений по сравнению с GPU Nvidia, особенно для крупных корпоративных клиентов, работающих с большими объёмами данных.
Компания активно продвигает эти решения через AWS, предлагая клиентам более выгодные тарифы и оптимизированную инфраструктуру. В некоторых случаях Amazon заявляет о снижении затрат на десятки процентов, что становится ключевым фактором для бизнеса на фоне стремительного роста расходов на ИИ.
Параллельно Amazon расширяет сотрудничество с разработчиками ИИ, включая стартапы и крупные компании, чтобы адаптировать программное обеспечение под свои чипы. Это важный шаг, так как экосистема и совместимость играют не меньшую роль, чем «железо».
Несмотря на это, позиции Nvidia остаются крайне сильными благодаря зрелой программной платформе CUDA и широкой поддержке со стороны индустрии. Однако тенденция очевидна: крупнейшие облачные провайдеры, включая Amazon, всё активнее инвестируют в собственные полупроводниковые решения, чтобы контролировать стоимость инфраструктуры, снизить риски дефицита чипов и уменьшить зависимость от одного поставщика.