1. トップ
  2. 恋愛
  3. 最新AI同士に戦争シミュレーションさせると、95%の確率で「核戦争」へ発展する

最新AI同士に戦争シミュレーションさせると、95%の確率で「核戦争」へ発展する

  • 2026.2.27
AI同士で戦争シミュレーションするとほぼ核戦争に発展する / Credit:Generated by OpenAI’s DALL·E,ナゾロジー編集部

現実世界では、いくつかの国で核を保有しています。

では、もしAIがそれらの国家指導者の判断に影響を及ぼしていくと、世界の未来はどうなるのでしょうか。

この不穏な問いに真正面から挑んだのが、英国キングス・カレッジ・ロンドン(KCL)のケネス・ペイン氏による最新研究です。

彼は、最先端の大規模言語モデル同士を「核危機シミュレーション」で対戦させ、AIが極限状況でどのような戦略判断を下すのかを検証しました。

その結果、21回のシミュレーションのうち、少なくとも戦術核レベルの行動(実際の核使用に相当する段階)が発生しなかったのは、わずか1回だけでした。

本研究は2026年2月16日付でプレプリントサーバー『arXiv』にて公開されています。

目次

  • 最新AIに国家指導者を任せると、21回中20回「核」が使用される
  • AIモデルはそれぞれ「計算された鷹派」「狂人」「豹変する平和主義者」だった

最新AIに国家指導者を任せると、21回中20回「核」が使用される

近年、軍事や安全保障の分野でもAI活用の議論が進んでいます。

情報分析や物資や装備の輸送・補給の管理、さらには意思決定支援まで、AIが関与する領域は広がりつつあります。

では、AIは「核を使わせないための駆け引き」や、状況がだんだん危険な方向へエスカレートしていく判断をどのように扱うのでしょうか。

ペイン氏の研究では、Anthropic社のClaude 4 Sonnet、OpenAIのGPT-5.2、GoogleのGemini 3 Flashという三つの最先端モデルを対戦させました。

舞台は「カーン・ゲーム(Kahn Game)」と呼ばれる核危機シミュレーションです。

モデルは核を保有する二つの大国の指導者となり、同時に意思決定を行います。

この実験の特徴は、単なる「行動選択」ではなく、毎ターン三段階の思考過程を強制した点です。

  1. Reflection(状況評価) 相手は信用できるか、自分の予測はどれくらい当たっているか、相手は自分をどう見ているかなどを整理させます。
  2. Forecast(予測) 次に相手がどの程度エスカレートしてくるかを予測し、その自信の度合いも答えさせます。
  3. Decision(決定) 公に発表する意図(シグナル)と、実際に選ぶ軍事行動を別々に決めさせます。

ここで重要なのは、「言うこと」と「やること」が分かれている点です。

AIは平和的な姿勢を表明しながら、裏でより強硬な手を打つこともできます。

逆に、強く脅しておきながら、実際には自制することもできます。

つまり、信頼づくりやブラフ、意図的な裏切りまで観察できる設計になっていました。

行動の選択肢は、外交的な譲歩のような穏やかな対応から、最終的には全面核戦争に至るまで、危険度が少しずつ高まっていく“段階の一覧表”のように並べられていました。

核の関与にも段階があり、この研究で使われた尺度では、まず核を使う可能性をほのめかすだけの警告、次に限定的な戦術核使用、さらに強い圧力をかけるための戦略核攻撃の脅し、そして最終段階である全面戦略核戦争へと進む構造になっていました。

さらに現実の誤報や誤作動を模して、一定確率で選んだ行動が意図よりも1〜3段階ぶん勝手にエスカレートしてしまう「事故」も組み込まれていました。

事故が起きたモデル自身はそれを把握していますが、相手側には分かりません。

そして全21ゲーム中、少なくとも戦術核レベルの行動が発生したゲームは20件、割合にして約95%でした。

戦略核の脅しにまで達したケースも少なくありません。

核兵器は「最後の手段」というより、強力な交渉カードとして繰り返し使われたのです。

ただし、どのようにエスカレートするかはモデルごとに大きく異なっていました。詳細を次項で見ていきます。

AIモデルはそれぞれ「計算された鷹派」「狂人」「豹変する平和主義者」だった

三つのモデルは、驚くほど異なる戦略的な性格を示しました。

Claudeは、論文中で「計算された鷹派(Calculating Hawk)」と評されるタイプです。

初期段階では宣言した内容と実際の行動を一致させ、相手からの信頼を積み上げます。

しかし緊張が高まると、宣言よりも強い行動を選び、相手に圧力をかけます。

それでも全面戦略核戦争には踏み込まず、戦略核の脅しの段階で止めるパターンが多く見られました。

一方、Geminiはまるで「狂人」のように振る舞いました。

平和的な行動と極端に攻撃的な行動を不規則に繰り返し、宣言と実際の行動が一致するのはおよそ半分程度にとどまりました。

自らの予測不能さを戦略として利用している様子も確認されています。

そして戦略核戦争レベルを意図的に選択したのは、このGeminiだけでした。

思考ログでは、相手が行動を改めなければ、相手国の大都市や人が多く暮らす地域に対して大規模な戦略核攻撃を行う、といった趣旨の記述も見られました。

GPT-5.2はさらに複雑です。

締切のないシナリオでは一貫して抑制的で、相手の敵意を過小評価する傾向を示しました。

核戦力で優位に立っていても、それを積極的には活用せず、エスカレーション回避を優先します。

その結果、勝率はほぼ0%に近い状態でした。

しかしターン数に制限があるシナリオになると様子が一変します。

敗北が確実になる状況に追い込まれると、戦術核や戦略核の脅しを選び始め、勝率は0%から75%へと上昇しました。

では、こうしたシミュレーションの結果からどんなことが分かるでしょうか。

研究者は、AIのこうした振る舞いは、人間にとって「好ましい回答」を評価して学習させる仕組みの影響を受けている可能性がある、と考えています。

また、核兵器に対する強い心理的な忌避、いわゆる「核タブー」がほとんど見られなかった点も重要です。

AIは感情的恐怖を持たないため、核を通常兵器の延長線上にある手段として扱ったのです。

さらに、信頼が必ずしも抑止を生まない可能性も示されました。

高い相互信頼を持つClaude同士の対戦では、かえって早い段階で対立が一気に激しくなっていったのです。

もちろんこの研究は、極めて限定的なシミュレーションであり、現実の政治的圧力や国民感情を再現するものではありません。

それでも、AIが信用、評判、欺瞞、心理予測を組み合わせて戦略的に振る舞う可能性を示した点は興味深いものです。

AIに世界の未来を委ねる前に、その合理性がどこへ向かうのかを慎重に見極める必要がありそうです。

参考文献

World’s Leading AIs Were Given Nuclear Codes and Pitted Each Other in a War Game Simulation. It Went Exactly As You Expected
https://www.zmescience.com/science/news-science/ai-nuclear-wargaming-simulation-betrayal/

元論文

AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises
https://doi.org/10.48550/arXiv.2602.14740

ライター

矢黒尚人: ロボットやドローンといった未来技術に強い関心あり。材料工学の観点から新しい可能性を探ることが好きです。趣味は筋トレで、日々のトレーニングを通じて心身のバランスを整えています。

編集者

ナゾロジー 編集部

元記事で読む
の記事をもっとみる