生成AIの現場では「クラウドでGPUを借りて回す」が常識でした。しかし、機密データの取り扱い、コストの予見性、レイテンシ、そして“常時稼働するAIエージェント”の登場により、その前提が揺らいでいます。NVIDIAがGTC 2026で発表した「DGX Station」は、最大1兆パラメータ級モデルをクラウド不要で扱える“デスクサイド超計算機”として、この流れを決定づける製品です。本稿では、DGX Stationの技術的な要点と、B2Bでの導入意義、そしてNVIDIAの戦略的インパクトを整理します。
DGX Station登場の背景:クラウド依存からローカルAIへ
AI活用が「試す」から「業務に組み込む」へ移行するほど、クラウド依存の課題が表面化します。代表例は、データの持ち出し制約(規制・契約・社内ルール)、外部環境に置くこと自体のリスク、そして利用量に比例して膨らむ推論・検証コストです。さらに、エージェント型AIが普及すると、都度起動するクラウドインスタンスよりも、状態を保持し続けるローカル計算資源の価値が上がります。

DGX Stationは、この「ローカルでモデルとデータとエージェントを所有したい」という企業ニーズに対するNVIDIAの回答です。従来はデータセンター級の設備を前提としていた領域を、エンジニアの机の横に“圧縮”することで、開発速度と統制(ガバナンス)を同時に上げる狙いがあります。価格は未公表ながら、構成から見てワークステーションの範囲を超える投資(いわゆる6桁ドル級)になり得ますが、クラウドで1兆パラ級推論を常用する費用と比較すると「高いが合理的」になりやすい点がポイントです。
性能の要点:20PFLOPSと748GB統合メモリが意味すること
DGX Stationの価値は、単なるGPUの速さではなく「モデルが載ること」と「載った状態で滞りなく動くこと」にあります。中核はGB300 Grace Blackwell Ultra Desktop Superchipで、72コアのGrace CPUとBlackwell Ultra GPUをNVLink-C2Cで直結し、CPUとGPUが単一のメモリ空間を共有する“コヒーレント(整合性のある)統合メモリ”を実現します。CPU-GPU間のコヒーレント帯域は1.8TB/秒とされ、一般的なPCIe接続のボトルネックを回避します。
数値として注目されるのが、20PFLOPS(毎秒2京回規模の演算)と、748GBの統合メモリです。前者は「机の横に置ける」サイズとしては異例で、数年前なら上位スーパーコンピュータ級の領域でした。ただし、ビジネス観点でより重要なのは後者のメモリ容量です。1兆パラメータ級モデルは、推論時でも巨大な重みをメモリに保持する必要があり、メモリが足りなければ“速さ”以前に動きません。DGX Stationはこの“載るかどうか”の閾値を越え、しかもCPUとGPU間のデータ移動ペナルティを最小化する設計で、ローカル推論・評価・微調整の実務性を高めています。
企業利用で効く「統合メモリ×高帯域」の実利
- 大規模モデルのローカル推論が、スワップや分割ロードに起因する遅延・不安定さなしに回しやすい
- 前処理(CPU)と推論(GPU)の往復が多いワークロードでスループットが落ちにくい
- クラウド転送を前提としないため、データ移動コストと運用リスクを抑えやすい
常時稼働エージェント時代:NemoClaw/OpenShellで実現する“個人AI OS”
NVIDIAがDGX Stationを「次のAIの形」と結びつけているのが、推論応答型ではなく、計画し、実行し、継続稼働するエージェント型AIです。常時稼働エージェントは、社内文書やコードベース、チケット、ログなど“企業の状態”を継続的に読み取り、タスクを分解し、ツールを呼び出し、結果を蓄積します。このとき必要なのは、オンデマンドの一時的GPUではなく、永続的な計算資源・メモリ・状態(ステート)です。DGX Stationは「机の下で24/7動く」前提のハードウェアとして設計されています。

ソフトウェア面では、NVIDIAが同時に打ち出したオープンソーススタック「NemoClaw」が鍵になります。NemoClawはNemotron系のオープンモデル群と、エージェント実行環境「OpenShell」を組み合わせ、ポリシーベースでセキュリティ、ネットワーク、プライバシーのガードレールを適用しながら自律エージェントを動かす思想です。NVIDIAはこれを“個人AIのOS”に近い位置づけで語っており、ハード(DGX Station)とソフト(NemoClaw/OpenShell)をセットで普及させることで、企業のAI運用の標準形を押さえに来ています。
開発から本番へ:デスクで試作しデータセンターへコード改修なしで移行
DGX Stationのもう一つの肝は「アーキテクチャの連続性」です。DGX Station上で構築したアプリケーションやパイプラインを、GB300 NVL72のようなデータセンター向け構成へ“コード改修なし”で移しやすい、というメッセージをNVIDIAは強く打ち出しています。AI開発の隠れコストは、計算資源そのものより、環境差分による再設計・再検証・依存関係の調整にあります。デスクで作ったものが、そのままデータセンター規模へスケールする設計は、PoCから本番移行までのリードタイム短縮に直結します。
つまりDGX Stationは「ローカル回帰」ではなく、「ローカルで始めて、必要なときだけクラウド/データセンターへ拡張する」ための踏み台です。クラウドを否定するのではなく、クラウド移行を前提にしつつ、開発初期のスピードと統制をローカルで確保する。ここに、NVIDIAの製品設計の巧妙さがあります。
導入が進む業界と活用例:規制・機密データ、研究、医療、インフラ
初期の導入企業・組織の顔ぶれは、DGX Stationが刺さる領域を示しています。たとえば、データ基盤・分析系、研究機関、医療、インフラなど、「データを外に出しにくい」「判断の遅延が許されない」「現場での検証頻度が高い」業界です。さらに、エアギャップ(外部ネットワークから隔離)構成も想定されており、分類情報や厳格な規制下でも採用しやすい設計になっています。
活用シナリオ(B2Bで現実的な使い方)
- 規制・機密データ:社内文書・契約・設計情報・顧客データを外部へ出さずに、RAG/要約/審査支援エージェントを常時稼働
- 研究開発:大規模モデルの推論評価、プロンプト/ツール設計、部分的な微調整をローカルで高速に反復し、成果のみをスケール環境へ
- 医療:画像と言語を組み合わせたVLMの検証、手術支援など、ネットワーク遅延や外部送信リスクを避けたいワークロード
- インフラ:気象・需要予測・設備保全の推論を現場側で回し、レジリエンス(通信断や災害時)を高める
また、モデル選択の自由度も重要です。特定ベンダーのAPIにロックインされず、Gemma、Qwen、Mistral、DeepSeek、Nemotronなど複数のオープンモデル系を前提に運用設計できる点は、B2Bでの調達・リスク管理(価格改定、提供条件変更、リージョン制約)に効きます。ハード側が「モデル非依存」を掲げることで、企業は“モデルは変えても運用基盤は維持する”という戦略を取りやすくなります。
NVIDIAの狙いと市場インパクト:クラウドとデスクの両取りでAIスタックを支配
DGX Stationを単体の高性能PCとして見ると本質を見誤ります。NVIDIAの狙いは、AI計算資源を「データセンターだけのもの」から「個人・部門の常設インフラ」へ拡張し、ソフトウェアスタックごと標準化することです。上位にはVera Rubin世代のラック級製品群、下位にはより小型のDGX Sparkやクラスター構成といった“机上データセンター”的選択肢を置き、あらゆるスケールで同じ開発体験を提供する。これにより、企業のAI投資がどの規模に向かっても、NVIDIAの土俵から出にくくなります。

市場インパクトとしては、クラウドの優位性が「唯一の選択肢」ではなくなる点が大きいでしょう。フロンティアモデルの学習そのものは引き続き巨大なデータセンターが必要です。一方で、多くの企業が実際に必要としているのは、学習済み大規模モデルの推論、社内データでの微調整、そして業務エージェントの常時運用です。ここがローカルに降りてくると、クラウド利用は“常用”から“拡張・ピーク対応”へ比重が変わります。NVIDIAにとっては、クラウド事業を毀損せず、むしろ「ローカルで作ってクラウドへ伸ばす」導線で両方を取れる構造になります。
まとめ
DGX Stationは、20PFLOPS級の計算性能と748GBの統合メモリにより、最大1兆パラメータ級モデルをクラウドなしで扱える“デスクサイド超計算機”として登場しました。重要なのは、ローカルでAIを動かせること自体よりも、常時稼働エージェント(NemoClaw/OpenShell)を前提とした運用、そしてデスクで試作した成果をデータセンターへコード改修なしでスケールさせる「連続したアーキテクチャ」にあります。
B2Bの観点では、規制・機密データを抱える企業、研究開発、医療、インフラなどで、コスト予見性・レイテンシ・ガバナンスを理由にローカルAIの需要が高まります。DGX Stationはその需要に対し、個人・部門単位で“AI工場の最小形”を提供する製品です。そしてNVIDIAは、クラウドとデスクの両方で同じスタックを握ることで、AIの開発・運用標準を支配しにいっています。今後は「クラウドか、オンプレか」ではなく、「ローカルを起点に、必要な分だけ上位へ拡張する」設計が、AI投資の現実解になっていくでしょう。

