論文の概要: Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator
- arxiv url: http://arxiv.org/abs/2008.13193v1
- Date: Sun, 30 Aug 2020 15:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:28:08.151747
- Title: Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator
- Title(参考訳): 観察による学習:人間のナビゲータのビデオからドローンをパトロールするための模倣学習
- Authors: Yue Fan, Shilei Chu, Wei Zhang, Ran Song, and Yibin Li
- Abstract要約: 本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
- 参考スコア(独自算出の注目度): 22.06785798356346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an imitation learning method for autonomous drone patrolling based
only on raw videos. Different from previous methods, we propose to let the
drone learn patrolling in the air by observing and imitating how a human
navigator does it on the ground. The observation process enables the automatic
collection and annotation of data using inter-frame geometric consistency,
resulting in less manual effort and high accuracy. Then a newly designed neural
network is trained based on the annotated data to predict appropriate
directions and translations for the drone to patrol in a lane-keeping manner as
humans. Our method allows the drone to fly at a high altitude with a broad view
and low risk. It can also detect all accessible directions at crossroads and
further carry out the integration of available user instructions and autonomous
patrolling control commands. Extensive experiments are conducted to demonstrate
the accuracy of the proposed imitating learning process as well as the
reliability of the holistic system for autonomous drone navigation. The codes,
datasets as well as video demonstrations are available at
https://vsislab.github.io/uavpatrol
- Abstract(参考訳): 本稿では,映像のみに基づく自律型ドローンパトロールの模倣学習手法を提案する。
従来の方法とは違って,人間ナビゲータが地上でどのように行うかを観察し模倣することにより,ドローンが空中パトロールを学ばせることを提案する。
この観察プロセスにより、フレーム間の幾何学的整合性を利用してデータの自動収集とアノテーションが可能となり、手作業の少ない精度と精度が向上する。
そして、アノテートされたデータに基づいて、新たに設計されたニューラルネットワークを訓練し、ドローンが車線維持方式でパトロールする適切な方向と翻訳を予測する。
我々の方法では、広い視野と低いリスクで高高度を飛行することができる。
また、横断歩道でアクセス可能なすべての方向を検知し、利用可能なユーザー指示と自律的なパトロール制御コマンドを統合することもできる。
提案した模倣学習プロセスの精度と,自律型ドローンナビゲーションのための総合システムの信頼性を示すため,大規模な実験を行った。
コード、データセット、ビデオデモはhttps://vsislab.github.io/uavpatrolで公開されている。
関連論文リスト
- Chasing the Intruder: A Reinforcement Learning Approach for Tracking
Intruder Drones [0.08192907805418582]
本研究では、チェッカードローンを用いて侵入者ドローンを識別・追跡するための強化学習に基づくアプローチを提案する。
提案手法は、強化学習の政策学習フレームワークにインターリーブされたコンピュータビジョン技術を用いている。
その結果、強化学習に基づくポリシーは、侵入者ドローンを識別・追跡するために収束していることがわかった。
論文 参考訳(メタデータ) (2023-09-10T16:31:40Z) - Multi-model fusion for Aerial Vision and Dialog Navigation based on
human attention aids [69.98258892165767]
本稿では,2023年ICCV会話史のための航空航法課題について述べる。
本稿では,人間注意支援型トランスフォーマモデル(HAA-Transformer)と人間注意支援型LSTMモデル(HAA-LSTM)の融合訓練方法を提案する。
論文 参考訳(メタデータ) (2023-08-27T10:32:52Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Aerial Vision-and-Dialog Navigation [10.596163697911525]
本稿では,Aerial Vision-and-Dialog Navigation (AVDN)を紹介した。
連続した環境でドローンシミュレータを構築し、3k以上の航法軌跡を記録した新しいAVDNデータセットを収集する。
本研究では,ナビゲーション経路と人的注意の両方を予測するための効果的なヒューマンアテンション支援変換モデル(HAA-Transformer)を提案する。
論文 参考訳(メタデータ) (2022-05-24T17:28:14Z) - Scarce Data Driven Deep Learning of Drones via Generalized Data
Distribution Space [12.377024173799631]
GAN(Generative Adversarial Network)を通じて、ドローンデータの一般的な分布を理解することで、不足したデータを取得して、迅速かつ正確な学習を実現することができることを示す。
我々は、実際のドローン画像とコンピュータ支援設計のシミュレーション画像の両方を含むドローン画像データセット上で、我々の結果を実証した。
論文 参考訳(メタデータ) (2021-08-18T17:07:32Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Vision-based Drone Flocking in Outdoor Environments [9.184987303791292]
このレターでは、ドローン群に対する視覚に基づく検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることが示される。
論文 参考訳(メタデータ) (2020-12-02T14:44:40Z) - LaND: Learning to Navigate from Disengagements [158.6392333480079]
本研究では,学習者に対する学習支援のための強化学習手法(LaND)を提案する。
LaNDは現在の知覚的観察から、どのアクションが解離につながるかを予測するニューラルネットワークモデルを学び、テスト時計画で解離を回避するアクションを実行する。
以上の結果から,LaNDは多種多様な現実世界の歩道環境を学習し,模倣学習と強化学習の両方に優れることを示した。
論文 参考訳(メタデータ) (2020-10-09T17:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。