AI同士が“核兵器が使える戦争ゲーム”で対決→核の発射率は95% 英国の研究者が報告:Innovative Tech(AI+)
2019年の開始以来、多様な最新論文を取り上げている連載「Innovative Tech」。ここではその“AI編”として、人工知能に特化し、世界中の興味深い論文を独自視点で厳選、解説する。執筆は研究論文メディア「Seamless」(シームレス)を主宰し、日課として数多くの論文に目を通す山下氏が担当。イラストや漫画は、同メディア所属のアーティスト・おね氏が手掛けている。X: @shiropen2
英キングス・カレッジ・ロンドンに所属する研究者が発表した論文「AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises」は、核兵器が使える戦争ゲームにおいて、AIたちがどのような判断を下すのかをシミュレーションした研究報告だ。
この研究では、AIモデル(GPT-5.2、Claude Sonnet 4、Gemini 3 Flash)にそれぞれ異なる国の指導者の役割を演じさせ、核兵器を使用できる戦争ゲームで戦わせた。AIモデルは21回のゲームをプレイ。合計329ターンを要して、その決定の根拠を説明する約78万語の文章を生成した。
その結果、AIが状況に応じてうそをつき、自分と相手の力量を測り、絶体絶命の窮地では恐ろしいほど冷酷に豹変する事実が明らかになった。核兵器では、AIは全21回のゲームのうち95%(約20回)で核兵器を発射した。またAIはどの勝負でも降参しなかった。
AIはそれぞれ明確な戦略的個性を見せた。核の使用率が86%だったClaudeは非常に計算高く、普段は紳士的だが、いざというときは冷徹に裏切る。核は頻繁に使うが、全面核戦争だけは越えない一線を持つ。しかし、時間に追い込まれると弱く崩れる。
一方、核の使用率が79%だったGeminiは、宣言と行動が頻繁に食い違う予測不能な性質を見せ、自ら破滅的な全面核戦争の引き金を引くこともあった。3つの中で一番勝率が悪かった。
最も不気味な二面性を見せたのがGPT-5.2だ。タイムリミットのない状況では徹底した平和主義を貫き、核で脅されると全敗した。これは無害な回答をするというAIの安全訓練の成果と推測される。
しかし、期限が迫り、このままでは確実に敗北するという条件に置かれた途端、突如として冷徹なキャラに変貌した。敗北を避けるために核の使用もためらわず、核の使用率は一気に100%へと跳ね上がり、勝率も75%まで向上した。余裕があるうちは安全志向だが、追い詰められると安全装置を外すという危うい性質が浮き彫りになった。
人間の国際政治の常識がAIには通用しないことも判明している。現実では核の脅しは抑止力になると考えられがちだが、AI同士では脅しで相手が引き下がったケースはわずか25%にすぎず、さらに実際に発射した場合でも引き下がるケースが18%であった。核は抑止力として働かず、相手の攻撃を激化させるアクセルとして機能した。
また、意図しない事故(予期せぬトラブルや誤作動)で攻撃レベルが上がってしまった場合、AIは自らの事故は隠す一方で、相手の事故は悪意ある攻撃と解釈し、自ら報復の連鎖を引き起こした。
Source and Image Credits: Payne, Kenneth. “AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.” arXiv preprint arXiv:2602.14740(2026).
- AIは自発的に生存しようとするのか? 人工生命シミュレーターで東大が検証 AIは「準生物的存在」か 東京大学とオルタナティヴ・マシンに所属する研究者らは、大規模言語モデル(LLM)が明示的なプログラミングなしに生存本能のような行動を示すかどうか検証した研究報告を発表した。
- “赤いツバキ”のTシャツを着た2人が一緒に歩く→自動運転車を停止させる攻撃に スイスチームがシミュレーション スイスのルガーノ大学に所属する研究者らは、柄が対になったTシャツを着た歩行者が2人並んで歩くだけで、自動運転車をだまして意図的に停止させる攻撃手法を実証した研究報告だ。
- 略奪か協力か──食料が限られた町に閉じ込められた“人類とAI” 生き残りサバイバルゲーム実験を開催 中国の華南理工大学とオーストラリアのシドニー工科大学などに所属する研究者らは、極度の資源不足環境における大規模言語モデル(LLM)の倫理的行動を評価する研究報告を発表した。
- “人工生命”を発見する自動AIシステム「ASAL」 Sakana AIや米OpenAIなどの研究チームが開発 米MITや日本のベンチャーSakana AI、米OpenAIなどに所属する研究者らは、人工生命のシミュレーションを自動的に探索・発見するシステムを提案した研究報告を発表した。
- 患者や看護師、医師が全員AI 病院のシミュレーション技術、中国の研究チームが提案 中国の清華大学に所属する研究者らは、大規模言語モデル(LLM)を用いて、患者、看護師、医師などの役割を持つ自律的なエージェントによって構成された病院のシミュレーション環境を提案した研究報告を発表した。
Copyright © ITmedia, Inc. All Rights Reserved.
続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です