論文の概要: EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following
- arxiv url: http://arxiv.org/abs/2106.15045v1
- Date: Tue, 29 Jun 2021 01:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 06:47:49.519733
- Title: EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following
- Title(参考訳): EVPropNet:空中着陸と追尾のためのプロペラを見つける
- Authors: Nitin J. Sanket, Chahat Deep Singh, Chethan M. Parameshwara, Cornelia
Ferm\"uller, Guido C.H.E. de Croon, Yiannis Aloimonos
- Abstract要約: ドローンプロペラは画像の最も速く動く部分であり、激しい動きのぼけなくして古典的なカメラで直接「見える」ことはできない。
イベントカメラのデータからプロペラを検出するために、EVPropNetと呼ばれるディープニューラルネットワークをトレーニングする。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という,2つの応用例がある。
- 参考スコア(独自算出の注目度): 11.79762223888294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid rise of accessibility of unmanned aerial vehicles or drones pose a
threat to general security and confidentiality. Most of the commercially
available or custom-built drones are multi-rotors and are comprised of multiple
propellers. Since these propellers rotate at a high-speed, they are generally
the fastest moving parts of an image and cannot be directly "seen" by a
classical camera without severe motion blur. We utilize a class of sensors that
are particularly suitable for such scenarios called event cameras, which have a
high temporal resolution, low-latency, and high dynamic range.
In this paper, we model the geometry of a propeller and use it to generate
simulated events which are used to train a deep neural network called EVPropNet
to detect propellers from the data of an event camera. EVPropNet directly
transfers to the real world without any fine-tuning or retraining. We present
two applications of our network: (a) tracking and following an unmarked drone
and (b) landing on a near-hover drone. We successfully evaluate and demonstrate
the proposed approach in many real-world experiments with different propeller
shapes and sizes. Our network can detect propellers at a rate of 85.1% even
when 60% of the propeller is occluded and can run at upto 35Hz on a 2W power
budget. To our knowledge, this is the first deep learning-based solution for
detecting propellers (to detect drones). Finally, our applications also show an
impressive success rate of 92% and 90% for the tracking and landing tasks
respectively.
- Abstract(参考訳): 無人航空機やドローンのアクセシビリティの急速な上昇は、一般的なセキュリティと機密性に脅威をもたらす。
市販またはカスタムメイドのドローンのほとんどはマルチローターであり、複数のプロペラで構成されている。
これらのプロペラは高速回転するので、一般的には画像の最も速い可動部であり、重度の動きのぼやけのない古典的カメラでは直接「固定」できない。
我々は,高時間分解能,低レイテンシ,高ダイナミックレンジを有するイベントカメラと呼ばれるシナリオに適したセンサ群を利用する。
本稿では,プロペラの形状をモデル化し,イベントカメラのデータからプロペラを検出するためにevpropnetと呼ばれる深層ニューラルネットワークを訓練するために使用されるシミュレーションイベントを生成する。
EVPropNetは、微調整やリトレーニングなしに、現実世界に直接転送する。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という2つの応用例がある。
プロペラ形状と大きさの異なる実世界実験において,提案手法を評価し,実証した。
我々のネットワークは、プロペラの60%を遮断しても85.1%の速度でプロペラを検出でき、2Wの電力予算で35Hzまで動作させることができる。
私たちの知る限り、これは(ドローンを検出するために)プロペラを検出する最初のディープラーニングベースのソリューションです。
最後に,追跡作業と着陸作業のそれぞれが92%,90%という印象的な成功率を示した。
関連論文リスト
- Deep Ensemble for Rotorcraft Attitude Prediction [0.0]
ロータークラフトのコミュニティは、他の航空部門よりも高い死亡事故率を経験している。
人工知能(AI)の最近の進歩は、ロータークラフトの安全性問題に対処できるシステムの設計を支援する機会を提供する。
論文 参考訳(メタデータ) (2023-06-29T17:06:42Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Deep Learning on Home Drone: Searching for the Optimal Architecture [54.535788447839884]
そこで我々は,Raspberry Pi Zero v2のような弱いマイクロコンピュータ上で,学習によってリアルタイムなセマンティックセマンティックセマンティクスを実行するシステムを提案する。
特にRaspberry Piの重さは16ドル(約1万2000円)以下で、クレジットカードの半分程度なので、市販のDJI Telloのおもちゃに簡単に取り付けることができます。
その結果、自律ドローンは、オンボードのモノクロRGBカメラのビデオストリームからオブジェクトをリアルタイムで検出し、分類することができる。
論文 参考訳(メタデータ) (2022-09-21T11:41:45Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios [2.4378845585726903]
提案されたデータセットは、43k以上のアノテーションと、90degから90degの範囲でピッチまたはヨー角の4.0kの画像を含む261本のビデオをキャプチャした。
ドローンLAMSは、現在利用可能なドローンベースの顔検出データセットよりも、検出性能において大幅に改善された。
論文 参考訳(メタデータ) (2020-11-16T02:26:05Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。