論文の概要: Human vs. Machine: Language Models and Wargames
- arxiv url: http://arxiv.org/abs/2403.03407v1
- Date: Wed, 6 Mar 2024 02:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:22:42.887106
- Title: Human vs. Machine: Language Models and Wargames
- Title(参考訳): Human vs. Machine: 言語モデルとウォーゲーム
- Authors: Max Lamparth, Anthony Corso, Jacob Ganz, Oriana Skylar Mastro,
Jacquelyn Schneider, Harold Trinkunas
- Abstract要約: 我々は107人の国家安全保障の専門家によるウォーゲーム実験を使用して、架空の米国と中国のシナリオにおける危機エスカレーションを調査します。
LLMと人間の反応には相当な一致があるが,戦時ゲームにおけるシミュレーションゲームと人間プレイヤーの定量的,質的な差異も有意である。
- 参考スコア(独自算出の注目度): 1.7068454058822347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wargames have a long history in the development of military strategy and the
response of nations to threats or attacks. The advent of artificial
intelligence (AI) promises better decision-making and increased military
effectiveness. However, there is still debate about how AI systems, especially
large language models (LLMs), behave as compared to humans. To this end, we use
a wargame experiment with 107 national security expert human players designed
to look at crisis escalation in a fictional US-China scenario and compare human
players to LLM-simulated responses. We find considerable agreement in the LLM
and human responses but also significant quantitative and qualitative
differences between simulated and human players in the wargame, motivating
caution to policymakers before handing over autonomy or following AI-based
strategy recommendations.
- Abstract(参考訳): 戦争は軍事戦略の発展と国家の脅威や攻撃に対する対応において長い歴史を持っている。
人工知能(AI)の出現は、より良い意思決定と軍事効果を約束する。
しかし、AIシステム、特に大きな言語モデル(LLM)がどのように振る舞うかについては、人間と比べて議論がある。
この目的のために,米国と中国の架空のシナリオにおける危機エスカレーションを考慮し,人間のプレイヤーとLDMシミュレーションされた反応を比較するように設計された107人の国家安全保障専門家によるウォーゲーム実験を使用する。
llmと人間の反応には相当な一致が見られるが、戦争におけるシミュレートされたプレイヤーと人間のプレイヤーの間の有意な量的・質的な違いは、自律性やaiベースの戦略推奨に従う前に政策立案者に注意を促している。
関連論文リスト
- AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Open-Ended Wargames with Large Language Models [3.2228025627337864]
質的なウォーゲームを行うための LLM ベースのマルチエージェントシステムである "Snow Globe" を紹介する。
我々はそのソフトウェアアーキテクチャを概念的に記述し、この出版とともにオープンソース実装をリリースする。
このアプローチの潜在的な応用と、より広範なウォーガーミングエコシステムにどのように適合するかについて論じる。
論文 参考訳(メタデータ) (2024-04-17T14:54:58Z) - CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents [63.79739920174535]
文明ゲームに触発された環境であるCivRealmを紹介する。
CivRealmは、意思決定エージェントにとってユニークな学習と推論の課題である。
論文 参考訳(メタデータ) (2024-01-19T09:14:11Z) - Escalation Risks from Language Models in Military and Diplomatic
Decision-Making [0.0]
この研究は、シミュレーションされたウォーゲームにおいて、複数のAIエージェントの振る舞いを精査することを目的としている。
我々は,これらのエージェントによる行動のエスカレーションのリスクを評価するために,新たなウォーゲームシミュレーションとスコアリングフレームワークを設計する。
我々は、モデルが兵器追跡力学を発達させ、より大きな紛争、そして稀に核兵器の配備に至る傾向があることを観察する。
論文 参考訳(メタデータ) (2024-01-07T07:59:10Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - War and Peace (WarAgent): Large Language Model-based Multi-Agent
Simulation of World Wars [40.489161847202325]
LLMを利用したマルチエージェントAIシステムである textbfWarAgent を提案する。
シミュレーションの有効性を評価することにより,最先端AIシステムの能力の進歩と限界を検討する。
我々の発見は、紛争解決と平和維持戦略にどのようにアプローチするかを再定義する、データ駆動およびAIによる洞察を提供する。
論文 参考訳(メタデータ) (2023-11-28T20:59:49Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Superhuman Artificial Intelligence Can Improve Human Decision Making by
Increasing Novelty [8.120494737877799]
我々は過去71年間のプロの囲碁選手による580万件以上の移動決定を分析した。
超人的AIの出現により、超人的人間ははるかに優れた決定を下し始めた。
論文 参考訳(メタデータ) (2023-03-13T20:49:13Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。