論文の概要: Coordinated Strategies in Realistic Air Combat by Hierarchical Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.11474v1
- Date: Mon, 13 Oct 2025 14:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.411056
- Title: Coordinated Strategies in Realistic Air Combat by Hierarchical Multi-Agent Reinforcement Learning
- Title(参考訳): 階層型マルチエージェント強化学習によるリアルエアコンバットの協調戦略
- Authors: Ardian Selmonaj, Giacomo Del Rio, Adrian Schneider, Alessandro Antonucci,
- Abstract要約: 本稿では,これらの課題に対処するために,新しい3次元マルチエージェント空気戦闘環境と階層型マルチエージェント強化学習フレームワークを導入する。
提案手法は,異種エージェントのダイナミックス,カリキュラム学習,リーグプレイ,新たに適応したトレーニングアルゴリズムを組み合わせる。
実験の結果,我々の階層的アプローチは,複雑なドッグファイトシナリオにおける学習効率と戦闘性能を両立させることがわかった。
- 参考スコア(独自算出の注目度): 39.38793354038274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving mission objectives in a realistic simulation of aerial combat is highly challenging due to imperfect situational awareness and nonlinear flight dynamics. In this work, we introduce a novel 3D multi-agent air combat environment and a Hierarchical Multi-Agent Reinforcement Learning framework to tackle these challenges. Our approach combines heterogeneous agent dynamics, curriculum learning, league-play, and a newly adapted training algorithm. To this end, the decision-making process is organized into two abstraction levels: low-level policies learn precise control maneuvers, while high-level policies issue tactical commands based on mission objectives. Empirical results show that our hierarchical approach improves both learning efficiency and combat performance in complex dogfight scenarios.
- Abstract(参考訳): 空戦の現実的なシミュレーションでミッション目標を達成することは、不完全な状況認識と非線形飛行ダイナミクスのために非常に困難である。
本研究では,これらの課題に対処するために,新しい3次元マルチエージェント空戦環境と階層型マルチエージェント強化学習フレームワークを導入する。
提案手法は,異種エージェントのダイナミックス,カリキュラム学習,リーグプレイ,新たに適応したトレーニングアルゴリズムを組み合わせる。
この目的のために、意思決定プロセスは、低レベルの政策が正確な制御操作を学習し、高レベルの政策がミッション目標に基づいて戦術コマンドを発行する、という2つの抽象レベルに分けられる。
実験の結果,我々の階層的アプローチは,複雑なドッグファイトシナリオにおける学習効率と戦闘性能を両立させることがわかった。
関連論文リスト
- Reinforcement Learning for Decision-Level Interception Prioritization in Drone Swarm Defense [51.736723807086385]
本稿では,この課題に対処する上で,強化学習の実践的メリットを示すケーススタディを提案する。
本研究では,現実的な運用制約を捉えた高忠実度シミュレーション環境を提案する。
エージェントは最適なインターセプション優先順位付けのために複数のエフェクターを調整することを学ぶ。
我々は、何百ものシミュレートされた攻撃シナリオにおいて、手作りルールベースのベースラインに対する学習ポリシーを評価する。
論文 参考訳(メタデータ) (2025-08-01T13:55:39Z) - Enhancing Aerial Combat Tactics through Hierarchical Multi-Agent Reinforcement Learning [38.15185397658309]
本研究は,模擬空戦シナリオを解析するための階層型多エージェント強化学習フレームワークを提案する。
目的は、予め設定されたシミュレーションでミッションの成功につながる効果的な行動コースを特定することである。
論文 参考訳(メタデータ) (2025-05-13T22:13:48Z) - Dynamic Obstacle Avoidance with Bounded Rationality Adversarial Reinforcement Learning [5.760394464143113]
本稿では,障害物を敵エージェントとしてモデル化するトレーニングプロセスにより,ロバスト性のあるナビゲーションポリシーを実現する新しい手法を提案する。
我々はこの手法を、量子応答適応強化学習(Hi-QARL)による多元的ポリシーと呼ぶ。
論文 参考訳(メタデータ) (2025-03-14T14:54:02Z) - A Hierarchical Reinforcement Learning Framework for Multi-UAV Combat Using Leader-Follower Strategy [3.095786524987445]
マルチUAV空戦は、複数の自律型UAVを含む複雑な作業である。
以前のアプローチは、主にアクション空間を事前定義されたアクションに識別する。
本稿では,リーダ・フォロワー・マルチエージェント・プロキシ・ポリシー最適化戦略を利用した階層型フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-22T02:41:36Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Hierarchical Multi-Agent Reinforcement Learning for Air Combat
Maneuvering [40.06500618820166]
複数の異種エージェントを用いた空対空戦闘のための階層型多エージェント強化学習フレームワークを提案する。
低レベルの政策は、正確な部隊戦闘制御のために訓練される。指揮官政策は、事前訓練された低レベルの政策が与えられたミッション目標に基づいて訓練される。
論文 参考訳(メタデータ) (2023-09-20T12:16:00Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。