やっと来たぜ卓上AIスパコン「ASUS ASCENT GX10」!気になる性能はどう?

アクセスランキング

Special Site

PC Watch をフォローする

最新記事

Impress Watchシリーズ 人気記事

おすすめ記事

ASCENT GX10

 NVIDIAの卓上スパコン「DGX Spark」と、これをベースにした互換機が発表されてから結構経ったものの、最近やっと市場に実機が出回り始めた。編集部からASUSの「ASCENT GX10」が送られてきたので、「基本編」と「遊んでみた編」の2回に分けて試用レポートをお届けしたい。

 今年(2025年)1月8日にNVIDIAの「Project DIGITS」(その後、DGX Sparkに名称変更)が発表され、価格は3,000ドルから……というニュースを見た途端、AI漬けな筆者は即座に「欲しい!」と思ったのはいうまでもない(笑)。

 物や情報がなかなか出てこない中、次に大きな発表があったのは5月19日。3月の時点で、ASUS、Dell Technologies、HP、Lenovoの4社の名前が挙がっていたが、それに加えてAcer、GIGABYTE、MSIと、いつものPCメーカーが勢揃い。そして出荷は7月と、いよいよ!といった感じだった。

 ところが7月になっても物が出ず、11月頃からやっと(主に米国で)出回り出し、11月末辺りから国内でも購入可能になった。

 しかしその間、円がどんどん安くなり、執筆時で約1ドル=155円。単純計算で$3,000(1TBモデル)×155×1.1=51万1,500円と、ずいぶん高嶺の花になってしまった。

 購入するかどうか迷ってる中、今回ASUSから実機をお借りできたので、基本編と遊んでみた編2回に分けて試用記を書きたいと思う。主な仕様は以下の通り。

ASUS「ASCENT GX10」の仕様 プロセッサ ARM v9.2-A CPU(GB10) / 10 Cortex-X925 + 10 Cortex-A725 メモリ LPDDR5X 128GB(128Gb×8) ストレージ 1TB M.2 NVMe PCIe 4.0 SSD(2TB/4TBモデルあり) OS NVIDIA DGX OS / NVIDIA AI Software Stack(Ubuntu 24.04.3 LTS/lsb_release -aで確認) グラフィックス NVIDIA Blackwell GPU(GB10内蔵)/HDMI 2.1、Type-C x3 ネットワーク 10GbE、Wi-Fi 7、Bluetooth 5.4 インターフェイス USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC サイズ/重量 150×150×51mm、1.48kg 価格 59万7,980円

 プロセッサはGB10に内包するARM v9.2-A CPU(Cortex-X925 + 10 Cortex-A725)。このGB10には、NVIDIA Blackwell GPUも含まれる。映像出力はHDMI 2.1とUSB Type-C 3基。

 メモリはLPDDR5X 128GB(128Gb×8)のユニファイドメモリ。帯域幅は最大273GB/s。Ryzen AI Max+ 395の最大256GB/sよりは気持ち速く、M4 Max 128GBの最大546GB/sの半分となる。この部分はLLMのtok/sに直結するため、おおよその想像がつく。

 ストレージは1TB M.2 NVMe PCIe 4.0 SSD。2TBおよび4TBモデルも順次出荷予定だ。AI系のモデルファイルは数十GB級のものが多く、さすがに1TBでは心細いかもしれない。

 OSは、NVIDIA DGX OS。NVIDIA AI Software Stackも搭載する。OS自体はlsb_release -aで調べるとUbuntu 24.04.3 LTSだった。

 ネットワークは10GbE、Wi-Fi 7、Bluetooth 5.4。そのほかのインターフェイスは、USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC。意外とあっさりしている。

 NVIDIA ConnectX-7 SmartNICは、もう1台のDGX Spark(互換機も含む)を接続するもので帯域幅は最大200Gbps(25GB/s、QSFP 2基)。2台接続すると、使うアプリケーションにもよるが、LLMや学習系はメモリ2倍の256GBとして使うことができる。

 サイズ150×150×51mm、重量1.48kg。大きさ的には普段レビューしているミニPCと大差ないものの、重さだけはズッシリ重い。

 価格は1TBモデルで59万7,980円。Ryzen AI Max+ 395/128GB/2TB搭載の「EVO-X2」が39万3,900円(価格改定で高くなってしまった)、M4 Max 128GB/1TB搭載の「MacBook Pro 14」で75万3,800円なので、ザックリこの間に入る。そしてこれら2機種にない最大の特徴は、CUDAが使えることだ。

 本連載を含め、PCでAI関連を扱うにはCUDA=NVIDIA製のビデオカードが必須。AMDやIntelのGPUでも動かなくはないものの、苦労する上、速度もそれほど速くない。そして本機はBlackwellなのでGeForce RTX 50系と同じ。この点をどう評価するか? で対価格の印象も変わるのではないだろうか。

前面は電源ボタンのみ
背面。ロックポート、USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC、HDMI、10GbE
底面とiPhone 16 Pro。奥行きはiPhone 16 Proとほぼ同じ、“ミニPC”としては大きい方だが最大級ではない
付属品。ACアダプタ(サイズ約160×70×20mm、重量562g、出力240W)、ACケーブル。プラグの形状が国内と違うので、アダプタかケーブルを用意する必要がある
BIOS / Main。自動時[DEL]キーで表示
BIOS / Advanced。いろいろ見たが、特に興味深い項目はなかった
重量は実測で1,471g
いつものキーボード付きモバイルモニターへ接続。Type-CがDisplayPort Alt Mode対応なのでケーブル1本で接続可能

 筐体はiPhone 16 Proとの比較からも分かるようにコンパクト。だが持ってみると金属製でズッシリ重く1.47kg。多くのミニPCが500g~1kg未満なので、かなり重いのが分かる。このあたりは放熱系も関係しているのだろう。

 前面は電源ボタンのみ。背面は、ロックポート、USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC、HDMI、10GbE。裏は四隅にゴム足とネジがあり、ネジを外すと本体内へアクセスできそうな感じもするのだが今回は見送った。

 付属品はACアダプタ(サイズ約160×70×20mm、重量562g、出力240W)とACケーブル。手元に届いたのがたまたまかも知れないが、プラグの形状が国内と違うので、手持ちのケーブルを使っている。

 いつものキーボード付きモバイルモニターへ接続は、Type-Cポートのうち3基がDisplayPort Alt Mode対応なのでケーブル1本で接続可能。起動時に[DEL]キーでBIOSを表示する。何か面白い項目はないか? と一通り見たものの、特に興味深いものはなかった。

 ノイズや発熱は、GPUがフルに動き出すとそれなりにあり、特に熱に関しては長時間この状態が続いた場合、筐体(特にリア側)を長く触っていると火傷するかも!? 的な温度になる。

 ConnectX-7、重量や内部の様子はさておき、いつも扱っているミニPCとザックリと大差ない雰囲気。DGX SparkベースのAIスパコンといってオドオドする必要はない(笑)。

 まず環境確認、いつものlsb_release -a、nvidia-smi、nvcc --version。

$ lsb_release -aNo LSB modules are available.Distributor ID:	UbuntuDescription:	Ubuntu 24.04.3 LTSRelease:	24.04Codename:	noble$ nvidia-smiWed Dec  3 03:07:30 2025+-----------------------------------------------------------------------------------------+| NVIDIA-SMI 580.95.05              Driver Version: 580.95.05      CUDA Version: 13.0     |+-----------------------------------------+------------------------+----------------------+| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC || Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. ||                                         |                        |               MIG M. ||=========================================+========================+======================||   0  NVIDIA GB10                    On  |   0000000F:01:00.0  On |                  N/A || N/A   44C    P0              6W /  N/A  | Not Supported          |      5%      Default ||                                         |                        |                  N/A |+-----------------------------------------+------------------------+----------------------++-----------------------------------------------------------------------------------------+| Processes:                                                                              ||  GPU   GI   CI              PID   Type   Process name                        GPU Memory ||        ID   ID                                                               Usage      ||=========================================================================================||    0   N/A  N/A            3733      G   /usr/lib/xorg/Xorg                       85MiB ||    0   N/A  N/A            3886      G   /usr/bin/gnome-shell                    126MiB ||    0   N/A  N/A            4663      G   .../7421/usr/lib/firefox/firefox        214MiB |+-----------------------------------------------------------------------------------------+$ nvcc --versionnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2025 NVIDIA CorporationBuilt on Wed_Aug_20_01:57:39_PM_PDT_2025Cuda compilation tools, release 13.0, V13.0.88Build cuda_13.0.r13.0/compiler.36424714_0

 これにより、OSはUbuntu 24.04 LTS、GPUドライバはインストール済みであることが分かる。ただ最大W数やVRAM容量は表示されていない。CUDAは13.0。PyTorchをインストールする時、このバージョンが必要なので覚えておく。

 以下、起動時のデスクトップ、システム情報、インストール済みのアプリ一覧、システムモニター系、Jupyter Notebook。これだけのものが何もせずに一撃で動く。

 特にJupyter Notebookが動けば、この環境でPythonのプログラムなどをいろいろ試すことが可能だ。

起動時のデスクトップ
nvidia-smi、nvcc --version、lsb_release -a
インストール済みのアプリ一覧(1/2)
インストール済みのアプリ一覧(2/2)
System MonitorとDGX Dashboard(http://localhost:11000/)
Jupyter Notebook(http://localhost:11002/lab)

 次にモバイルモニター/キーボードからでは操作しにくいので、openssh-serverの動作確認とxrdpのインストール(Ubuntu標準のrdpは癖があるため)をした。

  1. ssh-serverの起動確認OK
  2. xrdpのインストール
$ sudo apt install xrdp$ sudo systemctl start|stop xrdp
xrdpをインストールして、macOSからリモートデスクトップ接続

 問題なく動作したので次のステップへ進む。

 なお、NVIDIA純正のリモート環境としてNVIDIA Syncというのがあり(ssh接続)、これを使ってもDGX Dashboard、Terminal、VSCodeにアクセスができるが(追加も可能)、sshとxrdpを使えば特に困らないので、今回は起動しただけで実際には使っていない。

NVIDIA Sync。ここからGX10のDGX Dashboard、Terminal、VSCodeにアクセスできる(追加も可能)

 macOSからASUS GX10のデスクトップが操作可能になったので、まずは動作検証がてらに「LM Studio」でgpt-oss-120bと「Qwen3-VL-32B-Instruct」を動かしてみたい。

 LM Studioのサイトへ行き、ARM64 Linux版をダウンロード。普段x86_64版ばかり使っているので間違えそうになり要注意!AppImage形式になっているので、chmod a+x LM-Studio-0.3.33-1-arm64.AppImage して起動する。

$ sudo apt install -y libfuse2※ 入ってなければ$ cd Downloads$ chmod a+x LM-Studio-0.3.33-1-arm64.AppImage$ ./LM-Studio-0.3.33-1-arm64.AppImage --no-sandbox
LM Studio起動。GPUはNVIDIA GB10。メモリとVRAMは119.64GBと認識

 起動した後は環境などを確認。GPUはNVIDIA GB10。メモリ、VRAMともに119.64GBと認識。エンジンはCUDA 13 llama.cpp(Linux ARM64)。

 LLMロード時の共通設定は、コンテキスト長最大、Keep Model in MemoryとTry mmap()はオフ、Flash Attentionと下2つはオン。実際動作させたのが以下の画面キャプチャとなる。

 なお、Qwen3-VL-32B-Instructに読み込ませた写真は4,000×3,000ドットと結構大きい画像だ。

LM Studioでgpt-oss-120b。「OpenAIについて」聞いたところ。52.75 tok/s、2359 tokens、0.48s to first token
LM StudioでQwen3-VL-32B-Instruct(Qwen3-VL-32B-Instruct-Q4_K_M.gguf)「これは何が写ってますか? 詳細に」。8.97 tok/s、1100 tokens、0.13s to first token

 速度指標となるtok/sに関してはメモリの帯域幅最大273GB/sでおおよそ予想はしていたが、やはり……といった感じだ。参考までにM4 Max 128GBとの比較を表にしたのが以下のものとなる。

モデル M4 Max 128GB(tok/s) GX10(tok/s) M4 Max 128GB(first token) GX10(first token) openai/gpt-oss-120b 73.51 52.75 1.07s 0.48s* qwen3-vl-32b-instruct 22.06 8.97 8s 0.13s*

 この表から分かるのは2つ。1つは、tok/sに関してはメモリの帯域幅がそのまま数値に表れていること。そしてもう1つfirst tokenは本機の方が圧倒的に速いこと。これはGB10内蔵のBlackwell GPUのパワーがそのまま表れている。

 このfirst tokenが速いということは、長いコンテキストや画像を入れても初期処理が速いということ(その後の考え中……は別の話)。たとえば定点撮影し、都度画像を与え、車が写っているか? という問いに対してYesまたはNoを答えるだけだと、出力時のtok/sはあまり関係なく、first tokenが速い方が良い。

 従って、同程度tok/s出るRyzen AI Max+ 395より少し速いだけか……と判断するのは早合点だ。このfirst tokenは、用途にもよるだろうが、重要なポイントだ。

 次は生成AI画像。比較しやすいように少し前の以下記事とまったく同じWorkflow(Nunchakuではない普通の方)でQwen-Imageを生成してみた。

GX10でComfyUIを使い、Qwen-Image(832x1216, 8 steps)を生成。17.08秒とそれなりに出る

 結果は17.08秒。GeForce RTX 3060(12GB)では42秒だったので、約2.4倍と予想以上に速い。参考までにUSB4接続のGeForce RTX 3090だと21.85秒、GeForce RTX 5090だと5.7秒。少なくともUSB4接続のGeForce RTX 3090よりはずいぶんと速い、という結果になる。

Qwen-Image + 8Steps LoRA、832×1,216での生成時間 GeForce RTX 3060(12GB) 42秒 GeForce RTX 3090(USB4接続) 21.85秒 GX10 17.08秒 GeForce RTX 5090 5.7秒

 Nunchakuで高速化し、現状Blackwellだけが対応しているFP4を使うとどうなるか? は次回の遊んでみる編でテストしたい。

 最後はQwen-Image用LoRAの学習。以下の記事とまったく同じく、kohya-ss/musubi-tunerを使用。10枚、1500 stepsで学習した。もちろん十分VRAM容量があるので、--fp8_base --fp8_scaled --blocks_to_swap 16はなし。

 CUDAが13.0なのでうまく動くか分からなかったが、無事動作した(Pythonは3.12を使用)。4 stepsの状態で予想終了時間、3時間50分。GeForce RTX 4090(48GB)では2時間53分だったので約1時間ほど余計にかかる。遅いといえば遅いが、学習で1時間程度の違いなら待てない時間でもなく、生成AI画像とともに、意外と行けるのでは!? ……と、思った次第。

musubi-tunerでQwen-Image用LoRAを学習中。終了予定時間3時間50分後
学習中のDGX Dashboard。メモリは52GBほど使用(メモリ+VRAM)。GPUもフルに動いている

 以上のようにASUS「ASCENT GX10」は、NVIDIA DGX Sparkベースの強力でコンパクトなミニAIスパコンだ。メモリ128GB搭載だとM4 Max 128GBのMacBook Pro、GMKtec EVO-X2などいくつかの選択肢があるものの、GX10の最大のメリットは、やはり何といってもCUDAが使えることだ。

 LLM/VLLMのtok/sはメモリ帯域なりだが、first tokenが速く、実際使い出すとストレスは少ないと思われる。生成AI画像および学習は、爆速ではないものの、十分許容範囲。1台でどちらも両立できるのは、ほかの2機種にはない特徴といえる。

 次回は、ComfyUIをNunchaku化しての高速化やいくつかAI関連のアプリケーションなどを動かして遊んでみたい。お楽しみに!(つづく)

トップページに戻る

イヤフォンミュージックドリンクコミック

関連記事: