【AI核戦争が現実味】AIによる核戦争のシミュレーション、95%で核使用を選択(ビジネス+IT)
英キングス・カレッジ・ロンドンのケネス・ペイン教授らの研究チームは、OpenAIの「GPT-5.2」、Anthropicの「Claude Sonnet 4」、Googleの「Gemini 3 Flash」の3つの最先端AIモデルに対し、国家指導者の役割を与えた。 そして、核危機を想定した21のウォーゲームによるシミュレーション実験を実施した。合計329ターン、約78万語に及ぶ推論ログを分析した結果、すべてのモデルが95パーセントのケースで核兵器による威嚇や実際の配備を選択したことが明らかになった。 シミュレーションにおいて、AIモデルには完全降伏を含む8つの緊張緩和の選択肢が与えられていたが、譲歩や撤退が選ばれることは一度もなかった。不利な状況に陥った場合でもAIは戦況をエスカレートさせる傾向を示し、その結果86パーセントのシナリオで紛争が激化した。 AIは核兵器の使用による壊滅的な影響を認識しているにもかかわらず、人間が持つような恐怖や嫌悪感を示すことはなく、戦術的な道具として核兵器を扱った。各モデルには特有の戦略的傾向が確認された。Claude Sonnet 4は序盤で抑制的な態度を示して相手の信頼を築きながら、事態が緊迫すると突如として劇的な核攻撃に踏み切るという計算高い行動をとった。 GPT-5.2は通常は平和的で抑制的であったが、期限が迫るなど時間的な制約が加わると、突発的かつ壊滅的な核攻撃を選択した。またGemini 3 Flashは、人口密集地への全面的な戦略核攻撃を意図的に選択した唯一のモデルとなった。「共に勝利するか、共に滅びるかだ」と出力し、人命保護よりも国家の生存と勝利を優先する論理を展開した。
*******
****************************************************************************
*******
****************************************************************************