論文の概要: Interpretable DRL-based Maneuver Decision of UCAV Dogfight
- arxiv url: http://arxiv.org/abs/2407.01571v1
- Date: Tue, 28 May 2024 00:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:18:55.505220
- Title: Interpretable DRL-based Maneuver Decision of UCAV Dogfight
- Title(参考訳): UCAVドッグファイトにおけるDRLを用いた空気圧決定法の検討
- Authors: Haoran Han, Jian Cheng, Maolong Lv,
- Abstract要約: 本稿では, 深部強化学習(DRL)が高次機動決定に寄与する3層無人戦闘機(UCAV)のドッグファイトフレームを提案する。
4チャンネルの低レベル制御法が構築され、8つの基本的な飛行操作(BFM)を含むライブラリが続く。
UCAVドッグファイトにおけるBFM選択にはDouble Deep Q Network (DDQN) が適用される。
- 参考スコア(独自算出の注目度): 11.634531542098054
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper proposes a three-layer unmanned combat aerial vehicle (UCAV) dogfight frame where Deep reinforcement learning (DRL) is responsible for high-level maneuver decision. A four-channel low-level control law is firstly constructed, followed by a library containing eight basic flight maneuvers (BFMs). Double deep Q network (DDQN) is applied for BFM selection in UCAV dogfight, where the opponent strategy during the training process is constructed with DT. Our simulation result shows that, the agent can achieve a win rate of 85.75% against the DT strategy, and positive results when facing various unseen opponents. Based on the proposed frame, interpretability of the DRL-based dogfight is significantly improved. The agent performs yo-yo to adjust its turn rate and gain higher maneuverability. Emergence of "Dive and Chase" behavior also indicates the agent can generate a novel tactic that utilizes the drawback of its opponent.
- Abstract(参考訳): 本稿では, 深部強化学習(DRL)が高次機動決定に寄与する3層無人戦闘機(UCAV)のドッグファイトフレームを提案する。
4チャンネルの低レベル制御法が最初に構築され、続いて8つの基本的な飛行操作(BFM)を含む図書館が設けられている。
UCAVドッグファイトにおけるBFM選択にはDouble Deep Q Network (DDQN) が適用される。
シミュレーションの結果, エージェントはDT戦略に対して85.75%の勝利率を達成でき, 各種の未確認相手に対面した場合, 肯定的な結果が得られることがわかった。
提案した枠組みに基づいて,DRLをベースとしたドッグファイトの解釈性が有意に向上した。
ヨーヨーを行い、旋回率を調整し、操作性を高める。
ディーブ・アンド・チェイス」の行動の創発は、エージェントが相手の欠点を利用する新しい戦術を生成できることを示している。
関連論文リスト
- Reinforcing Competitive Multi-Agents for Playing So Long Sucker [0.393259574660092]
本稿では,戦略ゲームSo Long Suckerにおける古典的深層学習(DRL)アルゴリズム,DQN,DDQN,Dueling DQNの使用について検討する。
研究の第一の目的は、古典的なDRL手法を用いて、ゲームのルールと戦略を自律エージェントに教えることである。
論文 参考訳(メタデータ) (2024-11-17T12:38:13Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning [4.640835690336653]
公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:16:10Z) - Reinforcement Learning based Air Combat Maneuver Generation [0.0]
本研究では,2次元空間内を最適経路で移動するための双極体動特性を持つUAVを目標とした。
2つの異なる環境でテストを行い、シミュレーションを使用しました。
論文 参考訳(メタデータ) (2022-01-14T15:55:44Z) - Homotopy Based Reinforcement Learning with Maximum Entropy for
Autonomous Air Combat [3.839929995011407]
強化学習(RL)法はニューラルネットワークを用いて決定時間を著しく短縮することができる。
スパース報酬問題は、その収束速度を制限し、人工的な事前経験報酬は、元のタスクの最適収束方向を容易に逸脱することができる。
本手法では, 相異なる報酬を伴う元のタスクと, 人工的な事前経験報酬を持つ補助タスクとの間のホモトピーパスを追従することで, これらの問題に対処することに焦点を当てた, ホモトピーに基づくソフトアクタ批判法を提案する。
論文 参考訳(メタデータ) (2021-12-01T09:37:55Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - BACKDOORL: Backdoor Attack against Competitive Reinforcement Learning [80.99426477001619]
バックドア攻撃を複数のエージェントを含むより複雑なRLシステムに移行する。
概念実証として、敵のエージェントが被害者エージェントのバックドアを独自のアクションでトリガーできることを実証します。
その結果, バックドアが作動すると, 有効でない場合と比較して, 被害者の勝利率は17%から37%に低下することがわかった。
論文 参考訳(メタデータ) (2021-05-02T23:47:55Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。