Meta + AWS: десятки миллионов Graviton-ядер для обучения Llama-следующего поколения
Meta и Amazon Web Services объявили соглашение о предоставлении Meta доступа к десяткам миллионов AWS Graviton-ядер для AI-вычислений. Это диверсификация compute-портфеля Meta — впервые крупный AI-лаб переходит на ARM-архитектуру для обучения LLM.
Что произошло
Meta и Amazon Web Services объявили соглашение о предоставлении Meta доступа к десяткам миллионов AWS Graviton-ядер для AI-вычислений. Впервые крупный AI-лаб переходит на ARM-архитектуру для обучения LLM.
Что это значит
Graviton — это ARM-процессоры AWS, которые до сих пор использовались для веб-серверов и базовой инференции. Тренировка LLM была монополией Nvidia GPU. Шаг Meta — первый прецедент когда ARM-CPU становится частью AI-стека крупного лаба. Это удешевляет compute (Graviton ~30% дешевле x86 при той же производительности на инференцию) и снижает зависимость от Nvidia.
Что это значит для нас (MBK-Agent)
Прямо нас не задевает — мы работаем на API уровне, не на железе. Но опосредованно: если Meta инвестирует в ARM-инференцию, скоро получим оптимизированные модели Llama-следующего поколения, которые быстро бегут на дешёвом железе. Open-weights + дешёвый inference = более доступные on-prem развёртывания для клиентов с 152-ФЗ требованиями.
Технические детали
«Десятки миллионов ядер» — речь про общую compute-capacity, не про физические машины. Graviton4 (текущая флагманская версия) — 96 ARM-ядер на чип. Meta планирует использовать для inference и для дообучения уже обученных моделей.