やっと来たぜ卓上AIスパコン「ASUS ASCENT GX10」!気になる性能はどう?
アクセスランキング
Special Site
PC Watch をフォローする
最新記事
Impress Watchシリーズ 人気記事
おすすめ記事
NVIDIAの卓上スパコン「DGX Spark」と、これをベースにした互換機が発表されてから結構経ったものの、最近やっと市場に実機が出回り始めた。編集部からASUSの「ASCENT GX10」が送られてきたので、「基本編」と「遊んでみた編」の2回に分けて試用レポートをお届けしたい。
今年(2025年)1月8日にNVIDIAの「Project DIGITS」(その後、DGX Sparkに名称変更)が発表され、価格は3,000ドルから……というニュースを見た途端、AI漬けな筆者は即座に「欲しい!」と思ったのはいうまでもない(笑)。
物や情報がなかなか出てこない中、次に大きな発表があったのは5月19日。3月の時点で、ASUS、Dell Technologies、HP、Lenovoの4社の名前が挙がっていたが、それに加えてAcer、GIGABYTE、MSIと、いつものPCメーカーが勢揃い。そして出荷は7月と、いよいよ!といった感じだった。
ところが7月になっても物が出ず、11月頃からやっと(主に米国で)出回り出し、11月末辺りから国内でも購入可能になった。
しかしその間、円がどんどん安くなり、執筆時で約1ドル=155円。単純計算で$3,000(1TBモデル)×155×1.1=51万1,500円と、ずいぶん高嶺の花になってしまった。
購入するかどうか迷ってる中、今回ASUSから実機をお借りできたので、基本編と遊んでみた編2回に分けて試用記を書きたいと思う。主な仕様は以下の通り。
プロセッサはGB10に内包するARM v9.2-A CPU(Cortex-X925 + 10 Cortex-A725)。このGB10には、NVIDIA Blackwell GPUも含まれる。映像出力はHDMI 2.1とUSB Type-C 3基。
メモリはLPDDR5X 128GB(128Gb×8)のユニファイドメモリ。帯域幅は最大273GB/s。Ryzen AI Max+ 395の最大256GB/sよりは気持ち速く、M4 Max 128GBの最大546GB/sの半分となる。この部分はLLMのtok/sに直結するため、おおよその想像がつく。
ストレージは1TB M.2 NVMe PCIe 4.0 SSD。2TBおよび4TBモデルも順次出荷予定だ。AI系のモデルファイルは数十GB級のものが多く、さすがに1TBでは心細いかもしれない。
OSは、NVIDIA DGX OS。NVIDIA AI Software Stackも搭載する。OS自体はlsb_release -aで調べるとUbuntu 24.04.3 LTSだった。
ネットワークは10GbE、Wi-Fi 7、Bluetooth 5.4。そのほかのインターフェイスは、USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC。意外とあっさりしている。
NVIDIA ConnectX-7 SmartNICは、もう1台のDGX Spark(互換機も含む)を接続するもので帯域幅は最大200Gbps(25GB/s、QSFP 2基)。2台接続すると、使うアプリケーションにもよるが、LLMや学習系はメモリ2倍の256GBとして使うことができる。
サイズ150×150×51mm、重量1.48kg。大きさ的には普段レビューしているミニPCと大差ないものの、重さだけはズッシリ重い。
価格は1TBモデルで59万7,980円。Ryzen AI Max+ 395/128GB/2TB搭載の「EVO-X2」が39万3,900円(価格改定で高くなってしまった)、M4 Max 128GB/1TB搭載の「MacBook Pro 14」で75万3,800円なので、ザックリこの間に入る。そしてこれら2機種にない最大の特徴は、CUDAが使えることだ。
本連載を含め、PCでAI関連を扱うにはCUDA=NVIDIA製のビデオカードが必須。AMDやIntelのGPUでも動かなくはないものの、苦労する上、速度もそれほど速くない。そして本機はBlackwellなのでGeForce RTX 50系と同じ。この点をどう評価するか? で対価格の印象も変わるのではないだろうか。
筐体はiPhone 16 Proとの比較からも分かるようにコンパクト。だが持ってみると金属製でズッシリ重く1.47kg。多くのミニPCが500g~1kg未満なので、かなり重いのが分かる。このあたりは放熱系も関係しているのだろう。
前面は電源ボタンのみ。背面は、ロックポート、USB 3.2 Gen 2x2 Type-C 3基(DisplayPort Alt Mode対応)、USB 3.2 Gen 2x2 Type-C(USB PD 3.1準拠180W EPR対応)、NVIDIA ConnectX-7 SmartNIC、HDMI、10GbE。裏は四隅にゴム足とネジがあり、ネジを外すと本体内へアクセスできそうな感じもするのだが今回は見送った。
付属品はACアダプタ(サイズ約160×70×20mm、重量562g、出力240W)とACケーブル。手元に届いたのがたまたまかも知れないが、プラグの形状が国内と違うので、手持ちのケーブルを使っている。
いつものキーボード付きモバイルモニターへ接続は、Type-Cポートのうち3基がDisplayPort Alt Mode対応なのでケーブル1本で接続可能。起動時に[DEL]キーでBIOSを表示する。何か面白い項目はないか? と一通り見たものの、特に興味深いものはなかった。
ノイズや発熱は、GPUがフルに動き出すとそれなりにあり、特に熱に関しては長時間この状態が続いた場合、筐体(特にリア側)を長く触っていると火傷するかも!? 的な温度になる。
ConnectX-7、重量や内部の様子はさておき、いつも扱っているミニPCとザックリと大差ない雰囲気。DGX SparkベースのAIスパコンといってオドオドする必要はない(笑)。
まず環境確認、いつものlsb_release -a、nvidia-smi、nvcc --version。
$ lsb_release -aNo LSB modules are available.Distributor ID: UbuntuDescription: Ubuntu 24.04.3 LTSRelease: 24.04Codename: noble$ nvidia-smiWed Dec 3 03:07:30 2025+-----------------------------------------------------------------------------------------+| NVIDIA-SMI 580.95.05 Driver Version: 580.95.05 CUDA Version: 13.0 |+-----------------------------------------+------------------------+----------------------+| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC || Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. || | | MIG M. ||=========================================+========================+======================|| 0 NVIDIA GB10 On | 0000000F:01:00.0 On | N/A || N/A 44C P0 6W / N/A | Not Supported | 5% Default || | | N/A |+-----------------------------------------+------------------------+----------------------++-----------------------------------------------------------------------------------------+| Processes: || GPU GI CI PID Type Process name GPU Memory || ID ID Usage ||=========================================================================================|| 0 N/A N/A 3733 G /usr/lib/xorg/Xorg 85MiB || 0 N/A N/A 3886 G /usr/bin/gnome-shell 126MiB || 0 N/A N/A 4663 G .../7421/usr/lib/firefox/firefox 214MiB |+-----------------------------------------------------------------------------------------+$ nvcc --versionnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2025 NVIDIA CorporationBuilt on Wed_Aug_20_01:57:39_PM_PDT_2025Cuda compilation tools, release 13.0, V13.0.88Build cuda_13.0.r13.0/compiler.36424714_0これにより、OSはUbuntu 24.04 LTS、GPUドライバはインストール済みであることが分かる。ただ最大W数やVRAM容量は表示されていない。CUDAは13.0。PyTorchをインストールする時、このバージョンが必要なので覚えておく。
以下、起動時のデスクトップ、システム情報、インストール済みのアプリ一覧、システムモニター系、Jupyter Notebook。これだけのものが何もせずに一撃で動く。
特にJupyter Notebookが動けば、この環境でPythonのプログラムなどをいろいろ試すことが可能だ。
次にモバイルモニター/キーボードからでは操作しにくいので、openssh-serverの動作確認とxrdpのインストール(Ubuntu標準のrdpは癖があるため)をした。
- ssh-serverの起動確認OK
- xrdpのインストール
$ sudo apt install xrdp$ sudo systemctl start|stop xrdp問題なく動作したので次のステップへ進む。
なお、NVIDIA純正のリモート環境としてNVIDIA Syncというのがあり(ssh接続)、これを使ってもDGX Dashboard、Terminal、VSCodeにアクセスができるが(追加も可能)、sshとxrdpを使えば特に困らないので、今回は起動しただけで実際には使っていない。
macOSからASUS GX10のデスクトップが操作可能になったので、まずは動作検証がてらに「LM Studio」でgpt-oss-120bと「Qwen3-VL-32B-Instruct」を動かしてみたい。
LM Studioのサイトへ行き、ARM64 Linux版をダウンロード。普段x86_64版ばかり使っているので間違えそうになり要注意!AppImage形式になっているので、chmod a+x LM-Studio-0.3.33-1-arm64.AppImage して起動する。
$ sudo apt install -y libfuse2※ 入ってなければ$ cd Downloads$ chmod a+x LM-Studio-0.3.33-1-arm64.AppImage$ ./LM-Studio-0.3.33-1-arm64.AppImage --no-sandbox起動した後は環境などを確認。GPUはNVIDIA GB10。メモリ、VRAMともに119.64GBと認識。エンジンはCUDA 13 llama.cpp(Linux ARM64)。
LLMロード時の共通設定は、コンテキスト長最大、Keep Model in MemoryとTry mmap()はオフ、Flash Attentionと下2つはオン。実際動作させたのが以下の画面キャプチャとなる。
なお、Qwen3-VL-32B-Instructに読み込ませた写真は4,000×3,000ドットと結構大きい画像だ。
速度指標となるtok/sに関してはメモリの帯域幅最大273GB/sでおおよそ予想はしていたが、やはり……といった感じだ。参考までにM4 Max 128GBとの比較を表にしたのが以下のものとなる。
この表から分かるのは2つ。1つは、tok/sに関してはメモリの帯域幅がそのまま数値に表れていること。そしてもう1つfirst tokenは本機の方が圧倒的に速いこと。これはGB10内蔵のBlackwell GPUのパワーがそのまま表れている。
このfirst tokenが速いということは、長いコンテキストや画像を入れても初期処理が速いということ(その後の考え中……は別の話)。たとえば定点撮影し、都度画像を与え、車が写っているか? という問いに対してYesまたはNoを答えるだけだと、出力時のtok/sはあまり関係なく、first tokenが速い方が良い。
従って、同程度tok/s出るRyzen AI Max+ 395より少し速いだけか……と判断するのは早合点だ。このfirst tokenは、用途にもよるだろうが、重要なポイントだ。
次は生成AI画像。比較しやすいように少し前の以下記事とまったく同じWorkflow(Nunchakuではない普通の方)でQwen-Imageを生成してみた。
結果は17.08秒。GeForce RTX 3060(12GB)では42秒だったので、約2.4倍と予想以上に速い。参考までにUSB4接続のGeForce RTX 3090だと21.85秒、GeForce RTX 5090だと5.7秒。少なくともUSB4接続のGeForce RTX 3090よりはずいぶんと速い、という結果になる。
Nunchakuで高速化し、現状Blackwellだけが対応しているFP4を使うとどうなるか? は次回の遊んでみる編でテストしたい。
最後はQwen-Image用LoRAの学習。以下の記事とまったく同じく、kohya-ss/musubi-tunerを使用。10枚、1500 stepsで学習した。もちろん十分VRAM容量があるので、--fp8_base --fp8_scaled --blocks_to_swap 16はなし。
CUDAが13.0なのでうまく動くか分からなかったが、無事動作した(Pythonは3.12を使用)。4 stepsの状態で予想終了時間、3時間50分。GeForce RTX 4090(48GB)では2時間53分だったので約1時間ほど余計にかかる。遅いといえば遅いが、学習で1時間程度の違いなら待てない時間でもなく、生成AI画像とともに、意外と行けるのでは!? ……と、思った次第。
以上のようにASUS「ASCENT GX10」は、NVIDIA DGX Sparkベースの強力でコンパクトなミニAIスパコンだ。メモリ128GB搭載だとM4 Max 128GBのMacBook Pro、GMKtec EVO-X2などいくつかの選択肢があるものの、GX10の最大のメリットは、やはり何といってもCUDAが使えることだ。
LLM/VLLMのtok/sはメモリ帯域なりだが、first tokenが速く、実際使い出すとストレスは少ないと思われる。生成AI画像および学習は、爆速ではないものの、十分許容範囲。1台でどちらも両立できるのは、ほかの2機種にはない特徴といえる。
次回は、ComfyUIをNunchaku化しての高速化やいくつかAI関連のアプリケーションなどを動かして遊んでみたい。お楽しみに!(つづく)