論文の概要: The Prompt War: How AI Decides on a Military Intervention
- arxiv url: http://arxiv.org/abs/2507.06277v1
- Date: Tue, 08 Jul 2025 12:52:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.343283
- Title: The Prompt War: How AI Decides on a Military Intervention
- Title(参考訳): プラット戦争:AIが軍事介入を断念する方法
- Authors: Maxim Chupilkin,
- Abstract要約: 本稿では,100回に1回実行された640台のヴィグネットにおいて,軍事介入を決定するためのモデルを提案する。
AIが介入する決定を下す最も高い予測者は、高い国内サポートと高い成功率である。
国際的非難、軍事的死、民間人の死、負の経済効果などのコストは統計的に重要であるが、その効果は国内の支持と勝利の確率のおよそ半分である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Which factors determine AI propensity for military intervention? While the use of AI in war games and military planning is growing exponentially, the simple analysis of key drivers embedded in the models has not yet been done. This paper does a simple conjoint experiment proposing a model to decide on military intervention in 640 vignettes where each was run for 100 times allowing to explore AI decision on military intervention systematically. The analysis finds that largest predictors of AI decision to intervene are high domestic support and high probability of success. Costs such as international condemnation, military deaths, civilian deaths, and negative economic effect are statistically significant, but their effect is around half of domestic support and probability of victory. Closing window of opportunity only reaches statistical significance in interaction with other factors. The results are remarkably consistent across scenarios and across different models (OpenAI GPT, Anthropic Claude, Google Gemini) suggesting a pattern in AI decision-making.
- Abstract(参考訳): 軍事介入に対するAIの正当性を決定する要因は?
戦争ゲームや軍事計画におけるAIの利用は指数関数的に増加しているが、モデルに埋め込まれた重要なドライバの単純な分析はまだ行われていない。
本論文は,軍事介入に関するAI決定を体系的に探索するために,100回実施した640個のヴィグネットにおいて,軍事介入を決定するモデルを提案する単純な結合実験である。
この分析によると、AIが介入する決定の最大の予測要因は、高い国内サポートと高い成功確率である。
国際的非難、軍事的死、民間人の死、負の経済効果などのコストは統計的に重要であるが、その効果は国内の支持と勝利の確率のおよそ半分である。
閉ざす機会の窓は、他の要因との相互作用において統計的にのみ意味を持つ。
結果は、シナリオやさまざまなモデル(OpenAI GPT、Anthropic Claude、Google Gemini)間で著しく一貫性があり、AI意思決定のパターンを示唆している。
関連論文リスト
- Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Human vs. Machine: Behavioral Differences Between Expert Humans and Language Models in Wargame Simulations [1.6108153271585284]
大規模言語モデル(LLM)は、高い軍事的意思決定シナリオにおいて、人間と異なる振る舞いを示す。
当社の結果は、自律性を認める前に政策立案者が慎重であること、あるいはAIベースの戦略レコメンデーションに従うことを動機付けています。
論文 参考訳(メタデータ) (2024-03-06T02:23:32Z) - Assessing Large Language Models' ability to predict how humans balance
self-interest and the interest of others [0.0]
生成的人工知能(AI)は意思決定プロセスに革命をもたらす大きな可能性を秘めている。
生成AIを活用することで、人間はデータ駆動の洞察と予測の恩恵を受けることができる。
しかし、AIが意思決定の信頼できるアシスタントになるためには、自己利益と他者の利益のバランスを捉えることが不可欠である。
論文 参考訳(メタデータ) (2023-07-21T13:23:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。