こんにちは、編集部です。
ここ数年、生成AIといえば「クラウドで動かすもの」というのが常識でした。
高性能なGPUサーバーはクラウド事業者のデータセンターの中にあり、私たちはインターネット越しにそれを使わせてもらう、という構図です。
ところが最近、その前提が少しずつ崩れはじめています。
大規模言語モデル(LLM)が、机の上に置けるサイズのマシンで動く。
しかも、インターネットを経由しない“完全ローカル”で。
これ、冷静に考えると結構すごい話です。
セキュリティや機密情報の問題でクラウドAIを使えなかった業界にとっては、「ついに来た」瞬間でもあります。
そんな時代の変化を、かなり物理的に感じられる機材が今回の主役、DGX Spark です
まず、DGX Sparkとは一体なんなのかを簡単に説明しておきます。
DGX Sparkは、NVIDIA社が提供する AI計算用途に特化した小型ハイエンドマシンです。
一般的なワークステーションとは違い、設計思想の段階から
* 大規模モデルの学習・推論
* GPU前提の並列計算
* 長時間・高負荷運用
といった用途を想定しています。
よくある「高性能PC」ではなく、「AIを動かすための専用小型スパコン」という表現の方がイメージに近いかもしれません。
ここで一つ、珍事件が発生します。
ある日、社内でも有名な変態天才エンジニアのA氏がポツリと一言。
「これ……もう家でLLM回せる時代ってことですね」
そしてその数日後。
A氏、DGX Sparkを自腹で私物購入。なんと日本到着の初回ロットとのこと。
ちなみにこれ、普通に100万円近くします(2025年10月時点の実勢価格)。
会社に「購入を検討してください」と稟議を出す前に、自分で買ってしまったわけです。
本人曰く、
「クラウドを使えないお客様の現場でも、本当にこれでAIを使えるようになるのか検証したくて」
こういう人、本当にいるんです。あついぜA氏。
世界的な半導体不足や物流機能の逼迫などの影響からか、発注から2ヶ月ほど経ってようやく届いたというDGX Spark。今回はその私物マシンを、なんと編集部に持ち込んでもらうことになりました。
一方その頃、編集部側でも動きがありました。
「DGX SparkのOEM製品もあるらしいですよ、ちょっと値段が安いやつ」
そんな朗報を受けて、A氏に遅れを取りつつなんとか稟議を通して会社の予算で購入。こちらは会社の設備として導入したものです。
結果として、
・本家 NVIDIA DGX Spark(A氏の私物)
・ASUS製OEMマシン(編集部の機材)
の2台が揃いました。
しかもこの2台、ほぼ同時期に到着。
これはもう、並べて開封するしかないという流れです。
ここからは、お約束の「開封の儀」。
とっても嬉しそうなA氏。自宅で一度開封して一通り遊んだ後で、キレイに箱に戻して編集部との開封の儀に付き合ってくれる優しい男です
まずDGX Spark。最初の印象は「ゴージャス」。ほどよくツヤを抑えたマットなゴールドカラーで、もはやお金持ちの家にある謎の高級家電のような印象です。
そして、持ち上げた瞬間にわかる確かな重さは「この中に最先端のGPUがぎっしり...」という謎の説得力があります。
続いてASUS製OEM機。
こちらは見た目の第一印象は「ハイエンドなUbuntu」。
落ち着いたデザインで、どちらかというと“仕事道具感”が強め。開封したのはゼロ化の第一線で活躍するマネージャーたち。
ゼロ化の第一線で活躍する当社マネージャーたちも、はじめてゲームを買ってもらった子供のように興味津々
実際に手にした感想は...
「あっ。つめた〜い」
自販機の表示さながらの「つめた〜い」。だそうです。
編集部の感想はだいたいこんな感じでした。
* DGX Spark → ゴールドカラーでPCオタクが持ってもラグジュアリー
* ASUS機 → ガチ開発用マシンっぽい
ここで2台を机の上に並べてみましょう。
サイズ感はほぼ同じですね。
DGX Spark
NVIDIA DGX Sparkは底面まで徹底された美意識を感じます。底面がフラットで接地面が広めなので、排熱は底面ではなく側面からおこなうようです。
ASUS製 OEM機
OEM機の底面は実務端末といった印象です。こちらは「足」があるため接地場所との間に広い隙間ができ、下からの排熱を意識した設計のようですね。
外観を損なわないよう徹底されたインターフェースのDGX Sparkにたいして、OEM機のほうは実用的な作りという印象です。
続いてスペック。これは実機が到着する前から公開されているわけですが、実はSSDの容量以外は全く同じということのようです。現実的にはコスト面ではOEM機を購入してSSDは外付けで追加すれば理論上はまったく同じものとして使えることになります。
さて、今回の最大の見どころがここです。
今回検証に使用したのは、OpenAI社が公開しているオープンソースの大規模言語モデル「gpt-oss」。
このシリーズには、用途や環境に応じて選べるよう、2つのサイズのモデルが用意されています。
* 軽量でローカル検証向けの小型モデル「gpt-oss-20b」
* そして今回使った 120B(1,200億パラメータ)クラス「gpt-oss-120b」
という具合です。
中でもこの120B版は「研究用途クラスの大物」で、通常はクラウドの大規模GPUクラスタで動かすことを前提にしたサイズ。ローカルマシンで触れるだけでも、数年前なら考えられなかった領域です。ちなみにOpenAIの発表によれば推論能力は「GPT-4o-mini」と同等とのことです。
そんなモデルが、はたしてDGX Sparkで、つまりローカルPC上で動くのか...?
結論から言うと……
動きます。ちゃんと動きました。
もちろん、クラウドで提供される大規模な最新LLMと全く同じとはいきませんが、
* 推論能力は充分実用レベル
* 心配していた発熱も検証中は特に気にならなかった
* 処理速度はやや待ち時間(チャットなら数秒程度)を感じる
という結果でした。
「AIはクラウドでしか触れない」という時代は、確実に終わりつつある、という実感がありました。
この構成の本質的な価値は、ここにあります。
* 金融
* 製造業
* 医療
* 研究開発
* 官公庁系プロジェクト
これまで「データをクラウドに出せないからAIが利用できない」という制約がありました。
しかし、ローカルPCで大規模LLMを動かせるようになると話が変わります。
* データを外に出さない
* 社内ネットワーク内で閉じる
* ログもすべて内部管理
こういった運用が、現実的なコスト感でできるようになってきました。
これはかなり大きな変化です。
パーソルビジネスプロセスデザインでは、こうした環境を活用してお客様の業務改善を実現するサービスとして「プライベートAIサービス」を提供しています。
これまで「セキュリティ上の理由からクラウド型の生成AIは難しい」と、導入を見送ってきた現場でも、いまは諦める必要のない時代に入っています。たとえば、DGX Sparkのような高性能マシンが、現実的な価格かつ机の上に置けるサイズで利用可能になりました。実際に、こうした環境を自腹で用意してでも試行し、価値を検証するエンジニアがいる――私たちのチームには、そんな熱量と探究心を持つメンバーがそろっています。
私たちは、顧客の事業課題から逆算し、「何のために生成AIを使うのか」を明確化したうえで、要件に応じた最適なビジネスプロセスをデザインします。クラウド利用が難しい場合でも、オンプレミス/エッジ環境での安全な運用、機密データを保護する設計、監査に耐えるガバナンスまで、現場で使えるレベルに落とし込んで伴走します。環境はすでに整いつつあります。重要なのは、それを確かな成果につなげる設計と実装です。
セキュアな生成AIを前提にDXを推進したい企業様は、ぜひ私たちにご相談ください。現実的なスモールスタートから、全社展開まで、貴社の価値創出に直結する形で支援いたします。