2026年3月16日から19日にかけてカリフォルニア州サンノゼで開催されたNVIDIAの年次カンファレンス「GTC 2026」。今年のジェンスン・ファンCEOによる基調講演は、AI業界の主戦場が「モデルの学習」から「推論(インファレンス)と自律型エージェント」へと完全に移行したことを決定づける歴史的な内容となりました。
ファンCEOは、2027年末までに次世代アーキテクチャによるAI計算需要が1兆ドル(約159兆円)に達すると予測し、NVIDIAが単なるGPUメーカーから「AIファクトリーの総合オペレーター」へと進化したことを力強くアピールしました。以下に、その膨大な発表内容の要点を約3000文字で網羅的にまとめます。
1. 次世代AIプラットフォーム「Vera Rubin」の詳細と圧倒的性能
今年の最大の目玉は、これまでのAIインフラを根底から覆す次世代アーキテクチャ「Vera(CPU)」と「Rubin(GPU)」の詳細公開です。
- Rubin GPUによる「コスト革命」:TSMCの3nmプロセスで製造され、3360億個のトランジスタを搭載しています。最大の特徴は次世代メモリ**「HBM4」の採用です。GPU1基あたり288GBという大容量メモリを搭載し、帯域幅は前世代のBlackwellの約2.8倍にあたる最大22TB/sに達します。この圧倒的なデータ転送速度により、AI推論性能はBlackwell比で5倍に跳ね上がり、トークン生成コストは最大10分の1にまで削減**されます。
- Vera Rubin NVL72 ラック:36基のVera CPUと72基のRubin GPUを1つの水冷ラックに統合したシステムです。 1兆パラメータを超える巨大なMoE(Mixture of Experts)モデルであっても、このラック全体を単一の巨大なプロセッサとして扱うことで、極めて効率的な処理が可能になります。
2. 業界震撼:推論特化チップ「Groq 3 LPU」の統合
今回のGTCで最も大きなサプライズとなったのが、昨年12月に米スタートアップGroqと結んだ200億ドル規模のライセンス契約の結実である**「NVIDIA Groq 3 LPU (Language Processing Unit)」**の発表です。
- SRAMによる超低遅延:LPUはHBMを使用せず、チップ単体に500MBのSRAMを搭載し、150TB/sという驚異的な内部帯域幅を実現しています。これはAIモデルの「重み」をチップ内に直接保持できることを意味し、メモリアクセスの遅延を極限まで削ぎ落としました。
- Groq 3 LPX ラックと明確な役割分担:256基のLPUを搭載した専用ラック「LPX」が発表されました。NVIDIAは今後、**「モデルの学習はVera Rubin(GPU)、実際の運用・推論はGroq 3 LPX(LPU)」**というデータセンターレベルでの明確な分業体制を敷くことになります。すでに出荷は2026年第3四半期に予定されており、AWSなどが100万基規模の導入を表明しています。
3. 次世代ネットワークと光接続「Kyber」
AIモデルの巨大化に伴う通信ボトルネックを解消するため、インターコネクト(接続)技術も劇的な進化を遂げました。
- NVLink 6:GPU間の双方向通信帯域幅は3.6 TB/sに向上。ラック全体でのスケールアップ帯域は260 TB/sに達し、これは「グローバルインターネットの総帯域の2倍以上」という途方もないスペックです。
- 光統合パッケージング「Kyber」:銅線ケーブルの物理的な限界を見据え、GPUやCPUと同じパッケージ内に光トランシーバーを統合するコパッケージドオプティクス(CPO)技術「Kyber」が発表されました。 これにより電気から光への変換ロスと信号減衰を排除し、次世代の超大規模データセンターの消費電力と発熱を大幅に抑えます。
4. ソフトウェアと「Agent-as-a-Service」の台頭
ハードウェアの進化に歩調を合わせ、AIを自律的に動かすためのソフトウェア基盤も大きく拡張されました。ファンCEOは「すべてのSaaS企業が、AaaS(Agent-as-a-Service)企業へと変貌する」と宣言しています。
- Dynamo 1.0 (OSS):オープンソースとして公開されたAI推論のオーケストレーション基盤です。ユーザーからのリクエストを、必要なKVキャッシュをすでに保持しているGPU/LPUへと賢く誘導する「スマートルーティング」機能を実装しており、長大な文脈を持つエージェントAIの処理効率を劇的に改善します。
- エージェント実行基盤「NemoClaw / OpenClaw」:複雑なタスクを複数ステップに分けて自律的にこなすAIエージェントを、企業が容易に構築・デプロイできるフレームワークです。
- DLSS 5:ゲームやデジタルツイン向けに、既存のすべてのRTXシリーズプラットフォームと互換性を持つ新バージョンが発表されました。開発者の負担を減らしつつ、AIによる画質やフレームレートの向上をシームレスに提供します。
5. 宇宙から物流まで広がるNVIDIAエコシステム
NVIDIAの技術は、もはや地上のデータセンターにとどまりません。
- Space-1プロジェクト:地球軌道上にAIデータセンターを展開する「宇宙向けVera Rubin」の構想が発表されました。放射線耐性や真空空間での熱管理といった過酷な条件をクリアし、衛星からの観測データを地上に送る前にリアルタイムで推論処理を行うことを目指しています。
- 産業界とのパートナーシップ拡大:自動運転分野ではLyftやPlusAI、WeRideとの提携を発表。さらに物流・サプライチェーンの独Körber、エンジニアリング領域でのMcLarenなど、エージェンティックAIを活用した実産業への社会実装が急速に進んでいることが示されました。
総括
NVIDIA GTC 2026は、AIが「テキストや画像を生成するツール」から、「自律的に考え、行動し、推論コストが極小化された社会インフラ」へと脱皮する瞬間を象徴するイベントでした。圧倒的なメモリ帯域を持つVera Rubinと、推論に特化したGroq 3 LPUの両翼を揃えたNVIDIAの戦略には死角がなく、向こう10年のテクノロジー業界の覇権を握り続ける確固たる自信が伺えます。
関連URL(参考リソース):
- NVIDIA 公式ブログ (Vera Rubin関連プレス): https://blogs.nvidia.co.jp/
- NVIDIA DGX Rubin NVL8 / インフラストラクチャ詳細: https://www.nvidia.com/ja-jp/data-center/
- Qiita (GTC 2026 開発者向けまとめ / 推論コスト10x削減の全貌): https://qiita.com/(※詳細なプレスリリース全文や仕様書については、NVIDIA公式サイトのNewsroomからご確認いただけます)
