論文の概要: War and Peace (WarAgent): Large Language Model-based Multi-Agent
Simulation of World Wars
- arxiv url: http://arxiv.org/abs/2311.17227v1
- Date: Tue, 28 Nov 2023 20:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 23:13:01.195073
- Title: War and Peace (WarAgent): Large Language Model-based Multi-Agent
Simulation of World Wars
- Title(参考訳): 戦争と平和(WarAgent):大言語モデルに基づく世界大戦のマルチエージェントシミュレーション
- Authors: Wenyue Hua, Lizhou Fan, Lingyao Li, Kai Mei, Jianchao Ji, Yingqiang
Ge, Libby Hemphill, Yongfeng Zhang
- Abstract要約: LLMを利用したマルチエージェントAIシステムである textbfWarAgent を提案する。
シミュレーションの有効性を評価することにより,最先端AIシステムの能力の進歩と限界を検討する。
我々の発見は、紛争解決と平和維持戦略にどのようにアプローチするかを再定義する、データ駆動およびAIによる洞察を提供する。
- 参考スコア(独自算出の注目度): 40.489161847202325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can we avoid wars at the crossroads of history? This question has been
pursued by individuals, scholars, policymakers, and organizations throughout
human history. In this research, we attempt to answer the question based on the
recent advances of Artificial Intelligence (AI) and Large Language Models
(LLMs). We propose \textbf{WarAgent}, an LLM-powered multi-agent AI system, to
simulate the participating countries, their decisions, and the consequences, in
historical international conflicts, including the World War I (WWI), the World
War II (WWII), and the Warring States Period (WSP) in Ancient China. By
evaluating the simulation effectiveness, we examine the advancements and
limitations of cutting-edge AI systems' abilities in studying complex
collective human behaviors such as international conflicts under diverse
settings. In these simulations, the emergent interactions among agents also
offer a novel perspective for examining the triggers and conditions that lead
to war. Our findings offer data-driven and AI-augmented insights that can
redefine how we approach conflict resolution and peacekeeping strategies. The
implications stretch beyond historical analysis, offering a blueprint for using
AI to understand human history and possibly prevent future international
conflicts. Code and data are available at
\url{https://github.com/agiresearch/WarAgent}.
- Abstract(参考訳): 歴史の交差点での戦争は避けられるか?
この問題は人類の歴史を通じて個人、学者、政策立案者、組織によって追求されてきた。
本研究では,人工知能(AI)とLarge Language Models(LLM)の最近の進歩に基づいて,この問題に答えようとしている。
我々は、第一次世界大戦(wwi)、第二次世界大戦(wwii)、古代中国の戦国時代(wsp)を含む歴史的な国際紛争において、参加国、決定、結果をシミュレートする、llmによるマルチエージェントaiシステムである \textbf{waragent} を提案する。
シミュレーションの有効性を評価することにより,多種多様な環境下での国際紛争などの複雑な集団的人間行動の研究における最先端AIシステムの能力の進歩と限界を検討する。
これらのシミュレーションでは、エージェント間の創発的な相互作用は、戦争につながるトリガーと条件を調べるための新しい視点を提供する。
私たちの調査結果は、データ駆動およびaiによる洞察を提供し、紛争解決と平和維持戦略へのアプローチ方法を再定義します。
この意味合いは歴史的分析を超えて、AIを使って人類の歴史を理解し、将来の国際紛争を防ぐ青写真を提供する。
コードとデータは \url{https://github.com/agiresearch/waragent} で入手できる。
関連論文リスト
- A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - BattleAgent: Multi-modal Dynamic Emulation on Historical Battles to Complement Historical Analysis [62.60458710368311]
本稿では,大規模視覚言語モデルとマルチエージェントシステムを組み合わせたエミュレーションシステムであるBattleAgentを提案する。
複数のエージェント間の複雑な動的相互作用をシミュレートし、エージェントとその環境をシミュレートすることを目的としている。
指導者の意思決定プロセスと、兵士のような一般参加者の視点の両方をエミュレートする。
論文 参考訳(メタデータ) (2024-04-23T21:37:22Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。