宇宙にデータセンターを建設することはなぜ困難なのか?

サイエンス

イーロン・マスク率いるSpaceXは100万基の太陽光発電衛星で構成されたデータセンターを低軌道に打ち上げる計画を立てています。他にもジェフ・ベゾスのBlue OriginNVIDIAの支援するスタートアップも同様の計画を立てており、宇宙にデータセンターが建設される未来もかなり近づいているといえます。Booking.comのシニアスケーラビリティエンジニアであるクリスチャン・コーントップ氏が、宇宙にデータセンターを建設する際にどんなことが問題となるのかを自身のブログで解説しています。

Physics of Data Centers in Space | Die wunderbare Welt von Isotopp

https://blog.koehntopp.info/2026/02/25/physics-of-data-centers-in-space/ コンピュータのファンが回転を始めるのは演算という行為が物理的に熱を伴うためで、プロセッサがアイドル状態で電気的な動きが非常に少ない時はファンが静かになります。現代のプロセッサはクロックゲートやパワーゲート技術を用いて、必要のない時はチップの大部分を完全に停止させることで電力を極限まで抑えています。

しかし、実際の作業が始まると数十億のトランジスタが切り替わり、小さなコンデンサの充放電や抵抗経路を通じた電子の移動が発生します。このスイッチングエネルギーは直接熱へと変換されるため、クロック数が増えるほど熱量も増大し、物理的に避けることのできない発熱を伴うことになります。 シリコン製のチップは温度が上がると、本来流れるべきでないリーク電流が指数関数的に増加するという性質を持っています。この電流は計算には寄与せず、単に熱を発生させてさらに温度を上げるという悪循環を引き起こします。100℃付近ではリーク電流が深刻な設計上の問題となり、回路を維持するだけで余分な電力が必要になるため、設計者はクロック速度を下げたり、タイミング余裕を増やしたり、電圧を上げたりして対応せざるを得ず、結果としてワットあたりの性能が著しく低下します。

by Alexander Klepnev また、高温状態での運用はチップ内部の金属原子の移動や絶縁層の劣化を加速させ、ハードウェアの寿命を縮めることになります。冷却の目的は、リーク電流よりもスイッチングが支配的で、かつ高速なクロックを維持できる適切な温度範囲にチップを保つことにあります。

しかし、真空の宇宙空間には熱を運び去るための空気や液体が存在しないため、全ての排熱を放射に頼らなければなりません。より効率的に熱を放射するためにはチップを高温で動作させる必要がありますが、そうすれば電子機器の寿命が縮まるという、極めて厳しいトレードオフに直面します。

さらに問題になるのは宇宙線と呼ばれる、宇宙に飛び交う荷電粒子です。主な正体は陽子や原子核で、太陽の活動や超新星爆発のような激しい天体現象、さらに銀河の外にある非常に強力な天体から飛んでくると考えられています。地上にいる私たちは普段意識することがありませんが、宇宙線は常に身の回りを通っており、宇宙の激しい現象を探る手がかりであると同時に、人工衛星や宇宙飛行士に影響を与える存在でもあります。

地球上では磁場が保護層となり、有害な荷電粒子から電子機器を守る磁気の繭のような役割を果たしています。低軌道(LEO)はその保護の内側に位置していますが、南大西洋異常帯(SAA)のようにエラーが頻発する特異な領域も存在します。さらに高度が高い静止軌道などでは磁場の保護が変化し、より過酷な粒子環境にさらされることになります。

放射線が問題となるのは、現代のチップが微細な電荷を蓄える巨大なトランジスタの集合体であり、単一の粒子の衝突がその動作を狂わせるためです。高エネルギー粒子がチップを通過すると、メモリセルの0が1に反転するシングルイベントアップセット(SEU)が発生し、データが破損します。 このデータ破損を防ぐために誤り訂正符号(ECC)やパリティチェックが必要になりますが、これらは回路面積や電力、遅延のコストを伴うことになります。さらに、粒子が原因でチップが短絡するラッチアップのような破壊的な事象や、電荷が徐々に蓄積されて電圧やタイミングが変化する全電離線量(TID)の影響もあり、これらがチップの寿命とミッションの成否を決定づけます。

そのため、宇宙用ハードウェアはアルミニウムなどのシールドで保護されますが、重量が打ち上げ時の大きな負担となるため、完全な遮断は不可能です。そこで、放射線耐性の高いチップは意図的に古い世代の大きなトランジスタや厚い絶縁体を採用し余裕を持たせた電圧とクロックで動作させる保守的な設計が行われます。また、同じ計算を3回行って多数決をとる三重モジュラー冗長(TMR)構成などの手法も用いられますが、これらは回路面積を増やし、演算速度を大幅に低下させる要因となります。

AIの学習や推論に不可欠なNVIDIA H100のようなGPUを、そのまま宇宙空間で運用することは物理的な観点から実現不可能だとコーントップ氏は指摘しています。H100のGH100ダイは、TSMCの4Nプロセスを採用し、約814平方ミリメートルの面積に800億個ものトランジスタを搭載していますが、このような微細な構造を持つチップは、宇宙では半日ともたないだろうというのがコーントップ氏の見方です。

by 极客湾Geekerwan

欧州宇宙機関(ESA)の2017年の資料(PDFファイル)によれば、宇宙用として硬化処理された技術は65nmプロセスであり、これはH100を構成する構造と比較して面積比で250倍もの巨大さに相当します。もしH100と同等のトランジスタ数をこの宇宙用プロセスで実現しようとすれば、そのチップは0.2平方メートルという巨大な板状になり、エネルギー消費は増大し、クロック速度は極限まで低下してしまうとのこと。仮に比較的新しい28nmプロセスを用いたとしても、H100の50倍にあたる40000平方ミリメートルの面積が必要となり、宇宙でGPUを動作させることは事実上不可能だとコーントップ氏は主張しました。

さらに宇宙で計算機を運用しようとする場合、冗長化のオーバーヘッドは非常に重く、TMRのように3重化を前提にすると、800億個のトランジスタを持つチップでも、実効的には250億個規模のGPU断片のようなものになってしまいます。また、真空中で熱を効率よく逃がすためには動作温度を上げる必要がありますが、温度を上げればリーク電流が増えて電力効率が悪化し、さらなるクロック速度の低下を招きます。このように、宇宙用の演算リソースは地上での性能に遠く及ばない断片的なものとなるとのこと。 加えて宇宙にデータセンターを設置したとしても、それを地上から利用するためには通信の壁が立ちはだかります。帯域幅や遅延、スペクトルの制限に加え、低軌道のデータセンターは空を高速で移動するため、特定の地点から通信が可能な時間は90分おきに数分程度に限られます。衛星を追跡し続けて通信を維持するには、地上側の通信容量を大きく消費し、遅延面でも不利になります。 コーントップ氏は、打ち上げ費用や寿命を迎えた機体が大気圏に再突入する際の影響なども含めて検討すると、宇宙でのデータセンター運用は議論の余地がないほど困難であると結論づけました。

・関連記事 OpenAIのサム・アルトマンCEOいわく「人間を訓練するには20年の時間と食料が必要」で「AIのエネルギー消費に関する議論は不公平」 - GIGAZINE

宇宙にデータセンターを設置する構想は実現可能なのか?元NASAエンジニアが技術的課題を指摘 - GIGAZINE

「宇宙AIデータセンター」の展開を巡ってイーロン・マスクのSpaceXやジェフ・ベゾスのBlue Originが争っている - GIGAZINE

イーロン・マスクのSpaceXが100万基の太陽光発電衛星データセンターの打ち上げを計画 - GIGAZINE

Googleが人工衛星にAIチップを搭載して宇宙に打ち上げる「Project Suncatcher」を提唱 - GIGAZINE

月に「自由の女神より高い街灯兼ソーラーバッテリー」を建設する計画が進行中 - GIGAZINE

関連記事: