論文の概要: AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises
- arxiv url: http://arxiv.org/abs/2602.14740v1
- Date: Mon, 16 Feb 2026 13:35:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.435104
- Title: AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises
- Title(参考訳): AIアームと影響:シミュレートされた核危機における高度化推論のフロンティアモデル
- Authors: Kenneth Payne,
- Abstract要約: 我々は,核危機における3つのフロンティア大言語モデルが対立する指導者を演じる危機シミュレーションの結果を提示する。
我々の発見は、戦略理論の中心的信条の検証と挑戦の両方である。
我々は、AIシミュレーションが戦略的分析の強力なツールであると主張するが、人間の推論の既知のパターンに対して適切に調整された場合のみである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today's leading AI models engage in sophisticated behaviour when placed in strategic competition. They spontaneously attempt deception, signaling intentions they do not intend to follow; they demonstrate rich theory of mind, reasoning about adversary beliefs and anticipating their actions; and they exhibit credible metacognitive self-awareness, assessing their own strategic abilities before deciding how to act. Here we present findings from a crisis simulation in which three frontier large language models (GPT-5.2, Claude Sonnet 4, Gemini 3 Flash) play opposing leaders in a nuclear crisis. Our simulation has direct application for national security professionals, but also, via its insights into AI reasoning under uncertainty, has applications far beyond international crisis decision-making. Our findings both validate and challenge central tenets of strategic theory. We find support for Schelling's ideas about commitment, Kahn's escalation framework, and Jervis's work on misperception, inter alia. Yet we also find that the nuclear taboo is no impediment to nuclear escalation by our models; that strategic nuclear attack, while rare, does occur; that threats more often provoke counter-escalation than compliance; that high mutual credibility accelerated rather than deterred conflict; and that no model ever chose accommodation or withdrawal even when under acute pressure, only reduced levels of violence. We argue that AI simulation represents a powerful tool for strategic analysis, but only if properly calibrated against known patterns of human reasoning. Understanding how frontier models do and do not imitate human strategic logic is essential preparation for a world in which AI increasingly shapes strategic outcomes.
- Abstract(参考訳): 今日の主要なAIモデルは、戦略的競争に置かれるとき、洗練された振る舞いに従事します。
彼らは自発的に詐欺を試み、従おうとしない意図を示唆し、心の豊かな理論を示し、敵の信念を推論し、行動を予測する。
ここでは,3つのフロンティア大言語モデル (GPT-5.2, Claude Sonnet 4, Gemini 3 Flash) が核危機の指導者と対戦する危機シミュレーションの結果を紹介する。
私たちのシミュレーションは、国家安全保障の専門家に直接適用されていますが、不確実性の下でAI推論に関する洞察を通じて、国際的危機的意思決定を越えて適用されています。
我々の発見は、戦略理論の中心的信条の検証と挑戦の両方である。
私たちは、コミットメントに関するSchelling氏の考え、Kahn氏のエスカレーションフレームワーク、そしてJervis氏の誤解に対する取り組み、別名に対するサポートを見つけます。
しかし、我々はまた、核タブーは我々のモデルによる核のエスカレーションの障害ではないこと、戦略的な核攻撃は稀であること、脅威はコンプライアンスよりもむしろ反エスカレーションを引き起こすこと、高い相互信頼は紛争を抑止するよりも加速すること、そして、たとえ急激な圧力の下でも、宿泊や撤退を選択したモデルが暴力のレベルをわずかに減らすこと、の3つを見出した。
我々は、AIシミュレーションが戦略的分析の強力なツールであると主張するが、人間の推論の既知のパターンに対して適切に調整された場合のみである。
AIが戦略的成果をますます形作る世界にとって、フロンティアモデルがどのように人間の戦略的論理を模倣し、模倣しないかを理解することは、重要な準備である。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 [61.787178868669265]
この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。
この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。
論文 参考訳(メタデータ) (2026-02-16T04:30:06Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory [0.0]
我々は,Large Language Models (LLMs) に対する説得力のある支持証拠を提示する。
私たちは、先進的なフロンティアAI企業OpenAI、Google、およびAnthropicのエージェントに対する標準的な戦略を練り、進化的なIDDトーナメントを初めて実施します。
以上の結果から, LLMは競争力が高く, 持続的であり, 複雑な生態系で増殖することさえあることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T13:45:02Z) - AI Governance to Avoid Extinction: The Strategic Landscape and Actionable Research Questions [2.07180164747172]
人間性は、人間のエキスパートを著しく上回るAIシステムを開発するために、間もなく進もうとしているようだ。
我々は、デフォルトの軌道は人類の絶滅を含む大惨事の可能性が高いと信じている。
リスクは、強力なAIシステムを制御できないこと、悪意ある悪役によるAIの誤用、大国間の戦争、権威主義的なロックインなどにある。
論文 参考訳(メタデータ) (2025-05-07T17:35:36Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Escalation Risks from Language Models in Military and Diplomatic
Decision-Making [0.0]
この研究は、シミュレーションされたウォーゲームにおいて、複数のAIエージェントの振る舞いを精査することを目的としている。
我々は,これらのエージェントによる行動のエスカレーションのリスクを評価するために,新たなウォーゲームシミュレーションとスコアリングフレームワークを設計する。
我々は、モデルが兵器追跡力学を発達させ、より大きな紛争、そして稀に核兵器の配備に至る傾向があることを観察する。
論文 参考訳(メタデータ) (2024-01-07T07:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。