Meta AI / Llama / リリースノート / 2026/02/24 / 重要
Meta AI / Llama 2026年2月24日のリリース解説: AMD と最大6GWのAIインフラ契約
公式リリースノート
Meta は 2026年2月24日、AMD と最大6GW規模のAIインフラ契約を発表しました。NVIDIA、MTIA、Arm と並ぶ計算基盤ポートフォリオの重要な更新です。
要点
- AMD Instinct GPU を最大6GW規模で活用する長期契約が発表された
- Meta はAIインフラを単一ベンダーではなくポートフォリオ型で構築する方針を示している
- AMD とのロードマップ連携により、ハードウェア、ソフトウェア、システムを合わせて最適化する
- Meta AI / Llama の大規模提供には、GPU供給と推論効率の確保が不可欠
今回のリリースで変わったこと
今回のリリースは、Meta が AMD と長期的に連携し、AIインフラを多様化する発表です。AMD Instinct GPU によって最大6GW規模の計算能力を確保し、シリコン、システム、ソフトウェアのロードマップを合わせると説明されています。Meta は personal superintelligence を支えるには膨大な計算資源が必要であり、特定の1社や1種類のチップだけに依存しない柔軟な技術スタックを作ろうとしています。この発表は、NVIDIA との提携、MTIA、Arm CPU、Broadcom とのカスタムシリコンと並んで、Meta AI / Llama の将来の供給力に直結する更新です。
今回のリリースが関係する人
- AI GPU供給や計算基盤を追う人
- Meta のAIインフラ分散戦略を見たい人
- 推論コスト、可用性、スケールを評価する人
確認しておきたいこと
AMD GPU がどのワークロードに使われるのか、MTIAやNVIDIA基盤とどのように役割分担するのかを確認する必要があります。
結局、今回のリリースをどう読むべきか
このリリースは、Meta AI / Llama を支えるAIインフラ、エネルギー、データセンター、半導体サプライチェーンの更新です。直接のモデル機能ではありませんが、Meta がAIを大規模に提供し続けるための前提条件に関わるため、リリースノート相当として追跡します。