論文の概要: Collaborative Target Search with a Visual Drone Swarm: An Adaptive
Curriculum Embedded Multistage Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2204.12181v3
- Date: Sat, 25 Nov 2023 07:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 17:52:21.060904
- Title: Collaborative Target Search with a Visual Drone Swarm: An Adaptive
Curriculum Embedded Multistage Reinforcement Learning Approach
- Title(参考訳): 視覚的ドローン群を用いた協調目標探索--適応型カリキュラム組込み多段階強化学習アプローチ
- Authors: Jiaping Xiao, Phumrapee Pisutsin and Mir Feroskhan
- Abstract要約: 適応型カリキュラム組込み多段階学習(ACEMSL)という,データ効率の高い深層強化学習(DRL)手法を提案する。
我々は、協調対象探索タスクを、個別の障害物回避、対象探索、エージェント間協調を含むいくつかのサブタスクに分解し、多段階学習でエージェントを段階的に訓練する。
我々は、訓練されたモデルを実際の視覚ドローン群に展開し、微調整なしでCTS操作を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equipping drones with target search capabilities is highly desirable for
applications in disaster rescue and smart warehouse delivery systems. Multiple
intelligent drones that can collaborate with each other and maneuver among
obstacles show more effectiveness in accomplishing tasks in a shorter amount of
time. However, carrying out collaborative target search (CTS) without prior
target information is extremely challenging, especially with a visual drone
swarm. In this work, we propose a novel data-efficient deep reinforcement
learning (DRL) approach called adaptive curriculum embedded multistage learning
(ACEMSL) to address these challenges, mainly 3-D sparse reward space
exploration with limited visual perception and collaborative behavior
requirements. Specifically, we decompose the CTS task into several subtasks
including individual obstacle avoidance, target search, and inter-agent
collaboration, and progressively train the agents with multistage learning.
Meanwhile, an adaptive embedded curriculum (AEC) is designed, where the task
difficulty level (TDL) can be adaptively adjusted based on the success rate
(SR) achieved in training. ACEMSL allows data-efficient training and
individual-team reward allocation for the visual drone swarm. Furthermore, we
deploy the trained model over a real visual drone swarm and perform CTS
operations without fine-tuning. Extensive simulations and real-world flight
tests validate the effectiveness and generalizability of ACEMSL. The project is
available at https://github.com/NTU-UAVG/CTS-visual-drone-swarm.git.
- Abstract(参考訳): 災害救助やスマートウェアハウス配送システムへの応用には,ターゲット探索機能を備えたドローンの取得が極めて望ましい。
複数のインテリジェントドローンが互いに協力し、障害物間を操縦することで、タスクを短時間で達成する効果が向上する。
しかし、特に視覚ドローン群では、事前の目標情報のない協調目標探索(CTS)の実行は非常に困難である。
本研究では,適応型多段階学習(ACEMSL)と呼ばれるデータ効率の高い深層強化学習(DRL)手法を提案し,これらの課題に対処する。
具体的には, CTSタスクを個別の障害物回避, 対象探索, エージェント間協調などのサブタスクに分解し, 多段階学習でエージェントを段階的に訓練する。
一方、適応型組込みカリキュラム(AEC)を設計し、トレーニングで達成した成功率(SR)に基づいてタスク難易度(TDL)を適応的に調整することができる。
ACEMSLは、視覚ドローン群に対するデータ効率のトレーニングとチーム毎の報酬割り当てを可能にする。
さらに、トレーニングされたモデルを実際の視覚ドローン群にデプロイし、微調整なしでCTS操作を行う。
大規模なシミュレーションと実世界の飛行試験はACEMSLの有効性と一般化性を検証する。
このプロジェクトはhttps://github.com/NTU-UAVG/CTS-visual-drone-swarm.gitで入手できる。
関連論文リスト
- A Dual Curriculum Learning Framework for Multi-UAV Pursuit-Evasion in Diverse Environments [15.959963737956848]
本稿では,無人機群が障害物のある制限された環境で高速離着陸機を捕獲するために協力するマルチUAV追跡回避について述べる。
追従回避問題を単純化する既存のアルゴリズムは、しばしば表現力のある協調戦略を欠き、極端なシナリオで回避者を捕まえるのに苦労する。
多様な環境下でのマルチUAV追従回避に対処し,未知のシナリオに対するゼロショット転送能力を実証するデュアルカリキュラム学習フレームワークDualCLを導入する。
論文 参考訳(メタデータ) (2023-12-19T15:39:09Z) - Efficient Adaptive Human-Object Interaction Detection with
Concept-guided Memory [64.11870454160614]
概念誘導メモリ(ADA-CM)を用いた適応型HOI検出器を提案する。
ADA-CMには2つの操作モードがある。最初のモードでは、トレーニング不要のパラダイムで新しいパラメータを学習することなくチューニングできる。
提案手法は, HICO-DET と V-COCO のデータセットに対して, より少ないトレーニング時間で, 最新技術による競合的な結果を得る。
論文 参考訳(メタデータ) (2023-09-07T13:10:06Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones [0.0]
本稿では,非同期多段階深部強化学習(AMS-DRL)による対向ニューラルネットワークの学習手法を提案する。
AMS-DRLは、追従者および回避者を二部グラフで非同期に訓練する追従回避ゲームにおいて、敵エージェントを進化させる。
本手法を広範囲なシミュレーションで評価し,航法成功率の高いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-07T01:59:16Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Solving reward-collecting problems with UAVs: a comparison of online
optimization and Q-learning [2.4251007104039006]
与えられたスタートからゴールまでの短い経路を識別し、すべての報酬を集め、グリッド上でランダムに動く敵を避けるという課題について検討する。
本稿では,Deep Q-Learningモデル,$varepsilon$-greedyタブ状Q-Learningモデル,オンライン最適化フレームワークの3つの方法の比較を行った。
我々の実験は、ランダムな逆数を持つ単純なグリッドワールド環境を用いて設計され、これらの手法がどのように機能するかを示し、性能、精度、計算時間の観点から比較する。
論文 参考訳(メタデータ) (2021-11-30T22:27:24Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Distributed Reinforcement Learning for Flexible and Efficient UAV Swarm
Control [28.463670610865837]
本稿では,大規模群に拡大する分散強化学習(RL)手法を提案する。
本実験では, 本手法がコミュニケーションチャネル障害に強い効果的な戦略を導出できることを示した。
また,本手法は計算集約的なルックアヘッドに比べて優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-03-08T11:06:28Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。