論文の概要: A Hierarchical Hybrid AI Approach: Integrating Deep Reinforcement Learning and Scripted Agents in Combat Simulations
- arxiv url: http://arxiv.org/abs/2512.00249v1
- Date: Fri, 28 Nov 2025 23:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.130422
- Title: A Hierarchical Hybrid AI Approach: Integrating Deep Reinforcement Learning and Scripted Agents in Combat Simulations
- Title(参考訳): 階層型ハイブリッドAIアプローチ:コンバットシミュレーションにおける深層強化学習とスクリプトエージェントの統合
- Authors: Scotty Black, Christian Darken,
- Abstract要約: 本稿では,スクリプトエージェントの信頼性と予測性をRLの動的適応学習能力と相乗化する,階層型ハイブリッド人工知能(AI)アプローチを提案する。
提案手法は,AIシステムを階層的に構築することにより,日常的かつ戦術的な意思決定にスクリプトエージェント,高レベルの戦略的意思決定にRLエージェントを活用することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the domain of combat simulations in support of wargaming, the development of intelligent agents has predominantly been characterized by rule-based, scripted methodologies with deep reinforcement learning (RL) approaches only recently being introduced. While scripted agents offer predictability and consistency in controlled environments, they fall short in dynamic, complex scenarios due to their inherent inflexibility. Conversely, RL agents excel in adaptability and learning, offering potential improvements in handling unforeseen situations, but suffer from significant challenges such as black-box decision-making processes and scalability issues in larger simulation environments. This paper introduces a novel hierarchical hybrid artificial intelligence (AI) approach that synergizes the reliability and predictability of scripted agents with the dynamic, adaptive learning capabilities of RL. By structuring the AI system hierarchically, the proposed approach aims to utilize scripted agents for routine, tactical-level decisions and RL agents for higher-level, strategic decision-making, thus addressing the limitations of each method while leveraging their individual strengths. This integration is shown to significantly improve overall performance, providing a robust, adaptable, and effective solution for developing and training intelligent agents in complex simulation environments.
- Abstract(参考訳): ウォーゲーミングを支援する戦闘シミュレーションの分野において、知的エージェントの開発は、最近導入されたばかりの深層強化学習(RL)アプローチによるルールベースのスクリプト化手法によって主に特徴付けられる。
スクリプトエージェントは、制御された環境で予測可能性と一貫性を提供するが、固有の柔軟性のため、動的で複雑なシナリオでは不足する。
逆に、RLエージェントは適応性と学習に優れ、予期せぬ状況に対処する潜在的な改善を提供するが、ブラックボックスの意思決定プロセスやより大きなシミュレーション環境でのスケーラビリティの問題のような大きな課題に悩まされる。
本稿では,スクリプトエージェントの信頼性と予測性をRLの動的適応学習能力と相乗化する,階層型ハイブリッド人工知能(AI)アプローチを提案する。
提案手法は,AIシステムを階層的に構築することにより,日常的,戦術的決定にスクリプトエージェント,戦略的意思決定にRLエージェントを活用することを目的としている。
この統合は全体的なパフォーマンスを大幅に改善し、複雑なシミュレーション環境で知的エージェントを開発し、訓練するための堅牢で適応性があり、効果的なソリューションを提供する。
関連論文リスト
- Strategic Coordination for Evolving Multi-agent Systems: A Hierarchical Reinforcement and Collective Learning Approach [0.0]
強化学習は、シーケンシャルな意思決定をモデル化する方法を提供する。
エージェントは、MARLを使用して高レベル戦略を採り、アクションスペース削減のためのプランをグループ化する。
低レベルの集団学習層は、効率的で分散化された協調的な決定を保証する。
論文 参考訳(メタデータ) (2025-09-22T17:58:45Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [103.32591749156416]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - GenAI-based Multi-Agent Reinforcement Learning towards Distributed Agent Intelligence: A Generative-RL Agent Perspective [35.589506360952925]
我々は、AIに基づく強化学習を通じて、リアクティブからプロアクティブなマルチエージェントインテリジェンスへの変革的パラダイムシフトを論じる。
生成的RLエージェントは、即時観測に反応するのではなく、環境の進化をモデル化し、他のエージェントの振る舞いを予測し、協調されたアクションシーケンスを生成し、長期的ダイナミクスの戦略的推論を行うことができる。
論文 参考訳(メタデータ) (2025-07-13T05:02:43Z) - UserCentrix: An Agentic Memory-augmented AI Framework for Smart Spaces [8.111700384985356]
エージェントAIは、自律的で積極的な意思決定とともに、スマート環境を変革した。
本稿では、動的でコンテキスト対応な意思決定を通じてスマートスペースを強化するために設計された、エージェント型メモリ拡張AIフレームワークであるUserCentrixを紹介する。
論文 参考訳(メタデータ) (2025-05-01T11:54:49Z) - PolicyEvol-Agent: Evolving Policy via Environment Perception and Self-Awareness with Theory of Mind [9.587070290189507]
PolicyEvol-Agentは、他者の意図を体系的に獲得するのが特徴の包括的なフレームワークである。
PolicyEvol-Agentは、さまざまな認知操作を、内的および外的視点とともに、心の理論と統合する。
論文 参考訳(メタデータ) (2025-04-20T06:43:23Z) - Reinforcement Learning Environment with LLM-Controlled Adversary in D&D 5th Edition Combat [0.0]
この研究では、より小さなエージェントにDeep Q-Networks(DQN)を採用し、戦略的AI開発のためのテストベッドを作成している。
高度な言語モデルをRLフレームワークに統合し、戦略的意思決定プロセスの強化に成功しました。
論文 参考訳(メタデータ) (2025-03-19T22:48:20Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。