CES2026 NVIDIA CEO Jensen Huang氏の基調講演レポート
2026年1月5日、ラスベガスのベネチアン・コンベンション&エキスポセンターに、お馴染みのレザージャケットを羽織ったジェンスン・フアンCEOが登場しました。
今回のCES 2026キーノートは、単なる製品発表の域を遥かに超え、「コンピューティングの定義そのものの書き換え」と「物理世界を理解するPhysical AIの完成」を宣言する、歴史的なイベントとなりました。約1時間半に及ぶスピーチの内容を解説します。
[04:40] 導入:二重のプラットフォーム・シフト
ジェンスン氏は、コンピュータ業界が10〜15年ごとに経験する「プラットフォーム・シフト」が、今まさに2つの側面で同時に起きていると指摘しました。
- ● 第1のシフト(AIアプリケーション): ソフトウェアは人間が書くものから、AIが学習(トレーニング)するものへ。
- ● 第2のシフト(アクセラレーテッド・コンピューティング): 従来のCPUベースのインフラから、すべてがGPUベースへと置き換わる。
世界中に存在する10兆ドル規模の計算資源が、この「新しいやり方」へと近代化されている真っ最中であると強調しました。
[08:43] エージェントAI(Agentic AI)と推論の時代
2025年を通じて、AIは単なるチャットボットから、自ら計画し、推論し、ツールを使いこなす「エージェント(Agentic)」へと進化しました。
- ● 推論の重要性: 人間のように「考える時間(Test-time scaling)」を持つことで、AIは未知の問題を解決できるようになります。
- ● オープンモデルの台頭 [10:37]: DeepSeek R1などのオープンな推論モデルが、AIの民主化を加速させ、すべての国や企業がこの革命に参加できるようになったと称賛しました。
[26:58] 物理AI(Physical AI)と「Cosmos」の衝撃
講演の中盤、最も時間が割かれたのが「物理法則を理解するAI」です。ジェンスン氏はここで2つの重要な概念を定義しました。
- ● AI Physics(AI物理学): 重力、摩擦、因果関係など、自然界の法則をシミュレーションし理解するAI。
- ● Physical AI(物理AI): 現実世界でロボットや車として動き、物理世界と対話するAI。
- 世界基盤モデル「Cosmos」[32:42]: ビデオや3Dシミュレーションから「世界がどう動くか」を学習した新しいモデル。これにより、ロボットは現実で試す前にデジタルツイン(Omniverse)の中で数百万回もの訓練を行うことが可能になります。
[34:23] 次世代自動運転AI「Alpamayo(アルパマヨ)」
自動車産業に向けた最大の発表が、思考する自動運転AI「Alpamayo」です。
- ● 推論する運転: 単に障害物を避けるのではなく、「なぜその判断をしたか」を思考(Reasoning)プロセスとして言語化しながら運転します。
- ● メルセデス・ベンツとの融合 [40:46]: 新型CLAにこのシステムがフルスタックで搭載されることが発表されました。ジェンスン氏は、将来的に10億台の車すべてがAIを搭載し、自律走行するようになると予見しています。
[46:24] ロボティクスの「ChatGPTモーメント」
ステージには小型ロボットたちが登場し、ヒューマノイドロボット開発プラットフォーム「GR00T」の進化が披露されました。ロボットたちはシミュレーターである「Isaac Sim」の中で歩行や操作を学び、現実世界にシームレスに適用されます。
[55:00] 次世代アーキテクチャ「Vera Rubin(ヴェラ・ルービン)」
講演のクライマックスは、Blackwellの後継となる次世代AIプラットフォーム「Vera Rubin」の正式発表です。
- ● 極限の共同設計(Extreme Co-design)[01:03:01]: ムーアの法則が鈍化する中、NVIDIAはチップ単体ではなく、CPU、GPU、ネットワーク、ソフトウェアのすべてを一新することで性能を向上させます。
- ● Vera CPU [01:04:43]: 自社設計の88コア176スレッドARM CPU。電力効率は前世代比で2倍に向上。
- ● Rubin GPU [01:04:48]: 初のHBM4メモリ統合。FP4 Inference性能はBlackwellの5倍に達します。
|
NVFP4 Inference |
50 PFLOPS | 5 X Blackwell |
| NVFP4 Training | 35 PFLOPS | 3.1 X |
|
HBM4 Bandwidth |
22 TB/s | 2.8 X |
|
NVLINK Bandwidth/GPU |
3.6 TB/s GPU | 2 X |
|
Transistors |
336 Billion | 1.6 X |
● エクストリーム・コ・デザインであるNVFP4の重要性→トランジスタが1.6倍しか無いにも関わらずパフォーマンスの大幅向上を可能にした。- ● ConnectX-9 Spectrum-X Super NIC [01:09:32] 800Gb/s Ethernet with 200G PAM SerDes とプログラマブルRDMA。垂直統合用にはBlueField-4 DPU
- ● NVLink6 [01:12:50] 前世代のBlackwell(NVLink 5)から性能が400Gbit/Sと2倍に引き上げられました。
● NVIDIA VeraRubin NVL72 [1:14:03]
|
NVFP4 Inference |
3.6 EFLOPS | 5 X Blackwell |
|
NVFP4 Training |
2.5 EFLOPS | 3.5 X |
|
LPDDR5X Capacity |
54 TB | 3 X |
|
HBM Capacity |
20.7 TB | 1.5 X |
|
HBM4 Bandwidth |
22 TB/s | 2.8 X |
|
Scale-Up Bandwidth |
260 TB/s | 2 X |
|
Transistors |
220 Trillion | 1.7 X |
トータル2マイル5000本のカッパーケーブルで接続された72ノードのMGXシステム。消費電力はBlackwellの2倍だが45℃の温水で冷却され、データセンターにチラーなどのクーリングシテムは不要になるとの説明がありました。
[01:19:12] KVキャッシュと新しいストレージ
AIが会話を長く続けるために必要な「KVキャッシュ(文脈メモリ)」を管理するため、BlueField-4 DPUを用いた新しいストレージ管理システムの説明がありました。これにより、AIはユーザーとの会話を記憶し、リアルタイムで引き出せるようになります。
Rubin世代の新しいAIシステムで強調されていたのことは、消費電力が2倍になっても、計算量はそれよりも何倍も高くなること。そして45℃の冷却液で動作が可能なことです。世界のデータセンターの電力を6%節約できると説明がありました。
結論:NVIDIAが描く未来
|
昨今の講演同様に、ジェンスン・フアン氏がこの講演で示したのは、NVIDIAがもはや単なる「半導体メーカー」ではなく、「AIファクトリー(AI工場)」のインフラをCPU、GPU、ネットワーク、ストレージ、ソフトウェアなど全てにおいて提供可能なAIフルスタック企業であるということです。 「AIは画面の中から飛び出し、物理世界を歩き始める」というメッセージとともに、2026年が自律型マシンの普及元年になることを確信させる圧倒的な基調講演でした。 |











