ai-агент для вашего бизнеса
010 · депеша · Meta AI

Meta + AWS: десятки миллионов Graviton-ядер для обучения Llama-следующего поколения

2026-04-24 · источник: Meta AI · тема: AI-релизы · чтение: ~ 3 мин

Meta + AWS: десятки миллионов Graviton-ядер для обучения Llama-следующего поколения

Meta и Amazon Web Services объявили соглашение о предоставлении Meta доступа к десяткам миллионов AWS Graviton-ядер для AI-вычислений. Это диверсификация compute-портфеля Meta — впервые крупный AI-лаб переходит на ARM-архитектуру для обучения LLM.

Что произошло

Meta и Amazon Web Services объявили соглашение о предоставлении Meta доступа к десяткам миллионов AWS Graviton-ядер для AI-вычислений. Впервые крупный AI-лаб переходит на ARM-архитектуру для обучения LLM.

Что это значит

Graviton — это ARM-процессоры AWS, которые до сих пор использовались для веб-серверов и базовой инференции. Тренировка LLM была монополией Nvidia GPU. Шаг Meta — первый прецедент когда ARM-CPU становится частью AI-стека крупного лаба. Это удешевляет compute (Graviton ~30% дешевле x86 при той же производительности на инференцию) и снижает зависимость от Nvidia.

Что это значит для нас (MBK-Agent)

Прямо нас не задевает — мы работаем на API уровне, не на железе. Но опосредованно: если Meta инвестирует в ARM-инференцию, скоро получим оптимизированные модели Llama-следующего поколения, которые быстро бегут на дешёвом железе. Open-weights + дешёвый inference = более доступные on-prem развёртывания для клиентов с 152-ФЗ требованиями.

Технические детали

«Десятки миллионов ядер» — речь про общую compute-capacity, не про физические машины. Graviton4 (текущая флагманская версия) — 96 ARM-ядер на чип. Meta планирует использовать для inference и для дообучения уже обученных моделей.

// первоисточник Опубликовано Meta AI в X (Twitter): https://x.com/AIatMeta/status/2047647617681957207. Все цифры, цитаты и формулировки сверены с оригинальным постом на момент публикации депеши.
← К ленте депеш