論文の概要: Aerial View Goal Localization with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.03694v1
- Date: Thu, 8 Sep 2022 10:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:44:30.910007
- Title: Aerial View Goal Localization with Reinforcement Learning
- Title(参考訳): 強化学習による空中視野目標定位
- Authors: Aleksis Pirinen, Anton Samuelsson, John Backsund, Kalle {\AA}str\"om
- Abstract要約: 本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
- 参考スコア(独自算出の注目度): 6.165163123577484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With an increased amount and availability of unmanned aerial vehicles (UAVs)
and other remote sensing devices (e.g. satellites), we have recently seen a
vast increase in computer vision methods for aerial view data. One application
of such technologies is within search-and-rescue (SAR), where the task is to
localize and assist one or several people who are missing, for example after a
natural disaster. In many cases the rough location may be known and a UAV can
be deployed to explore a given, confined area to precisely localize the missing
people. Due to time and battery constraints it is often critical that
localization is performed as efficiently as possible. In this work, we approach
this type of problem by abstracting it as an aerial view goal localization task
in a framework that emulates a SAR-like setup without requiring access to
actual UAVs. In this framework, an agent operates on top of an aerial image
(proxy for a search area) and is tasked with localizing a goal that is
described in terms of visual cues. To further mimic the situation on an actual
UAV, the agent is not able to observe the search area in its entirety, not even
at low resolution, and thus it has to operate solely based on partial glimpses
when navigating towards the goal. To tackle this task, we propose AiRLoc, a
reinforcement learning (RL)-based model that decouples exploration (searching
for distant goals) and exploitation (localizing nearby goals). Extensive
evaluations show that AiRLoc outperforms heuristic search methods as well as
alternative learnable approaches. We also conduct a proof-of-concept study
which indicates that the learnable methods outperform humans on average. Code
has been made publicly available: https://github.com/aleksispi/airloc.
- Abstract(参考訳): 無人航空機(uavs)やその他のリモートセンシングデバイス(衛星など)の量と可用性が高まり、最近、航空映像データに対するコンピュータビジョンの手法が大幅に増加した。
そのような技術の応用の一つはサー(search-and-rescue, サー)であり、例えば自然災害後など、行方不明の1人または複数の人をローカライズし支援することである。
多くの場合、荒い場所が知られ、UAVを展開して、与えられた限られた地域を探索し、行方不明者の正確な位置を特定できる。
時間とバッテリーの制約のため、ローカライゼーションを可能な限り効率的に行うことが重要である。
本研究では,実際のuavへのアクセスを必要とせず,sarライクな設定をエミュレートする枠組みにおいて,air aerial view goal localizationタスクとして抽象化することにより,この問題にアプローチする。
この枠組みでは、エージェントは空中画像(探索領域のプロキシ)上で動作し、視覚的な手がかりで記述された目標のローカライズを任務とする。
実際のUAVの状況をさらに模倣するためには、エージェントは低解像度でも検索エリア全体を観察することができず、目標に向かって航行する際には、部分的な視線に基づいてのみ操作する必要がある。
この課題に対処するために,探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルであるAiRLocを提案する。
AiRLocはヒューリスティック検索法や学習可能な代替手法よりも優れていた。
また、概念実証実験を行い、学習可能な手法が人間を平均的に上回ることを示す。
コードは公開されている。 https://github.com/aleksispi/airloc。
関連論文リスト
- GOMAA-Geo: GOal Modality Agnostic Active Geo-localization [49.599465495973654]
エージェントが空中ナビゲーション中に観測された一連の視覚的手がかりを用いて、複数の可能なモダリティによって特定されたターゲットを見つけるという、アクティブなジオローカライゼーション(AGL)の課題を考察する。
GOMAA-Geo は、ゴールモダリティ間のゼロショット一般化のためのゴールモダリティアクティブなジオローカライゼーションエージェントである。
論文 参考訳(メタデータ) (2024-06-04T02:59:36Z) - Joint Path planning and Power Allocation of a Cellular-Connected UAV
using Apprenticeship Learning via Deep Inverse Reinforcement Learning [7.760962597460447]
本稿では,郊外環境におけるセルラー接続型無人航空機(UAV)の干渉対応共同経路計画と電力配分機構について検討する。
UAVは、そのアップリンクスループットを最大化し、近隣のBSに接続された地上ユーザ機器(UE)への干渉のレベルを最小化することを目的としている。
Q-learning と深層強化学習 (DRL) を併用した逆強化学習 (IRL) による見習い学習手法
論文 参考訳(メタデータ) (2023-06-15T20:50:05Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - Distributed Reinforcement Learning for Flexible and Efficient UAV Swarm
Control [28.463670610865837]
本稿では,大規模群に拡大する分散強化学習(RL)手法を提案する。
本実験では, 本手法がコミュニケーションチャネル障害に強い効果的な戦略を導出できることを示した。
また,本手法は計算集約的なルックアヘッドに比べて優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-03-08T11:06:28Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - POMP: Pomcp-based Online Motion Planning for active visual search in
indoor environments [89.43830036483901]
本稿では, 屋内環境におけるオブジェクトのアクティブビジュアルサーチ(AVS)の最適ポリシーを, オンライン設定で学習する問題に焦点をあてる。
提案手法はエージェントの現在のポーズとRGB-Dフレームを入力として使用する。
提案手法を利用可能なAVDベンチマークで検証し,平均成功率0.76,平均パス長17.1とした。
論文 参考訳(メタデータ) (2020-09-17T08:23:50Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Reinforcement Learning for UAV Autonomous Navigation, Mapping and Target
Detection [36.79380276028116]
本研究では,無人航空機(UAV)に低高度レーダーを装備し,未知の環境下での飛行における共同検出・マッピング・ナビゲーション問題について検討する。
目的は、マッピング精度を最大化する目的で軌道を最適化することであり、目標検出の観点からは、測定が不十分な領域を避けることである。
論文 参考訳(メタデータ) (2020-05-05T20:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。