論文の概要: Scaling Intelligent Agents in Combat Simulations for Wargaming
- arxiv url: http://arxiv.org/abs/2402.06694v1
- Date: Thu, 8 Feb 2024 21:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 19:42:42.521153
- Title: Scaling Intelligent Agents in Combat Simulations for Wargaming
- Title(参考訳): 戦闘シミュレーションにおけるインテリジェントエージェントのスケーリング
- Authors: Scotty Black, Christian Darken
- Abstract要約: 深層強化学習(英語版) (RL) は、ゲームにおける知的エージェント行動発達の有望な結果を示し続けている。
我々の研究は、大規模で複雑なシミュレーション環境で効果的に機能するインテリジェントエージェントを作成するためにHRLを研究・拡張している。
私たちの究極のゴールは、超人的なパフォーマンスを持つエージェントを開発し、軍事計画立案者や意思決定者のAIアドバイザーとして機能させることです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remaining competitive in future conflicts with technologically-advanced
competitors requires us to accelerate our research and development in
artificial intelligence (AI) for wargaming. More importantly, leveraging
machine learning for intelligent combat behavior development will be key to one
day achieving superhuman performance in this domain--elevating the quality and
accelerating the speed of our decisions in future wars. Although deep
reinforcement learning (RL) continues to show promising results in intelligent
agent behavior development in games, it has yet to perform at or above the
human level in the long-horizon, complex tasks typically found in combat
modeling and simulation. Capitalizing on the proven potential of RL and recent
successes of hierarchical reinforcement learning (HRL), our research is
investigating and extending the use of HRL to create intelligent agents capable
of performing effectively in these large and complex simulation environments.
Our ultimate goal is to develop an agent capable of superhuman performance that
could then serve as an AI advisor to military planners and decision-makers.
This papers covers our ongoing approach and the first three of our five
research areas aimed at managing the exponential growth of computations that
have thus far limited the use of AI in combat simulations: (1) developing an
HRL training framework and agent architecture for combat units; (2) developing
a multi-model framework for agent decision-making; (3) developing
dimension-invariant observation abstractions of the state space to manage the
exponential growth of computations; (4) developing an intrinsic rewards engine
to enable long-term planning; and (5) implementing this framework into a
higher-fidelity combat simulation.
- Abstract(参考訳): 技術的に先進的な競合相手との将来の競合で競争力を維持するためには、ウォーガミングのための人工知能(AI)の研究と開発を加速する必要がある。
さらに重要なことに、インテリジェントな戦闘行動開発に機械学習を活用することは、このドメインにおける超人的なパフォーマンスを達成するための鍵となるでしょう。
深層強化学習(deep reinforcement learning, rl)は、ゲームにおけるインテリジェントエージェントの振る舞い開発に有望な結果をもたらし続けているが、戦闘モデリングやシミュレーションで一般的に見られる複雑なタスクであるロングホリゾンでは、人間レベル以上では実行されていない。
RLの実証された可能性と近年の階層的強化学習(HRL:hierarchical reinforcement learning)の成功に乗じて、これらの大規模で複雑なシミュレーション環境で効果的に機能するインテリジェントエージェントを作成するためにHRLを研究・拡張している。
私たちの究極のゴールは、超人的なパフォーマンスを持つエージェントを開発し、軍事計画立案者や意思決定者のAIアドバイザーとして機能させることです。
This papers covers our ongoing approach and the first three of our five research areas aimed at managing the exponential growth of computations that have thus far limited the use of AI in combat simulations: (1) developing an HRL training framework and agent architecture for combat units; (2) developing a multi-model framework for agent decision-making; (3) developing dimension-invariant observation abstractions of the state space to manage the exponential growth of computations; (4) developing an intrinsic rewards engine to enable long-term planning; and (5) implementing this framework into a higher-fidelity combat simulation.
関連論文リスト
- Mastering the Digital Art of War: Developing Intelligent Combat Simulation Agents for Wargaming Using Hierarchical Reinforcement Learning [0.0]
対象とする観察抽象化、マルチモデル統合、ハイブリッドAIフレームワーク、階層的な強化学習フレームワークなど、包括的なアプローチを提案する。
線形空間減衰を用いた局所的な観測抽象化は,RL問題を単純化し,計算効率を向上し,従来の大域的観測法よりも優れた有効性を示す。
我々のハイブリッドAIフレームワークは、スクリプトエージェントとRLを同期させ、高レベルの決定にRLを、低レベルのタスクにスクリプトエージェントを活用し、適応性、信頼性、パフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-08-23T18:50:57Z) - Ego-Foresight: Agent Visuomotor Prediction as Regularization for RL [34.6883445484835]
エゴフォレスト(Ego-Foresight)は、エージェントと環境を移動と予測に基づいて切り離す自己管理手法である。
本稿では,エージェントのビジュモータ予測がRLアルゴリズムの正規化に役立ち,動作が予測可能な範囲内に留まるよう促すことを示す。
Ego-ForesightとモデルフリーなRLアルゴリズムを統合し、ロボット操作のシミュレーションを解くことで、効率が23%向上し、性能が8%向上した。
論文 参考訳(メタデータ) (2024-05-27T13:32:43Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Scaling Artificial Intelligence for Digital Wargaming in Support of
Decision-Making [0.0]
マルチモデルアプローチと次元不変の観察抽象化を含む階層的強化学習フレームワークを開発し,実装している。
AI対応システムを前進させることで、全ドメイン認識を強化し、意思決定サイクルのスピードと品質を改善し、新しい行動コースの推奨を提供し、敵の行動に迅速に対抗できるようになります。
論文 参考訳(メタデータ) (2024-02-08T21:51:07Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Human-Level Reinforcement Learning through Theory-Based Modeling,
Exploration, and Planning [27.593497502386143]
理論に基づく強化学習は、人間のような直感的な理論を使って環境を探索しモデル化する。
EMPAと呼ばれるゲームプレイエージェントのアプローチをインスタンス化する。
EMPAは90のAtariスタイルのビデオゲームで人間の学習効率と一致します。
論文 参考訳(メタデータ) (2021-07-27T01:38:13Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Guiding Robot Exploration in Reinforcement Learning via Automated
Planning [6.075903612065429]
強化学習(Reinforcement Learning, RL)は、エージェントが試行錯誤経験から長期的な目標を達成するための学習を可能にする。
自動計画は、行動知識を使用してタスクを達成するための計画を計算することを目的としている。
我々は、RLエージェントが行動知識で推論できるようにガイドダイナQ(GDQ)を開発した。
論文 参考訳(メタデータ) (2020-04-23T21:03:30Z) - The Chef's Hat Simulation Environment for Reinforcement-Learning-Based
Agents [54.63186041942257]
本稿では,人間-ロボットインタラクションのシナリオで使用されるように設計されたChef's Hatカードゲームを実装する仮想シミュレーション環境を提案する。
本稿では,強化学習アルゴリズムにおける制御可能かつ再現可能なシナリオを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。