論文の概要: Vision-based Drone Flocking in Outdoor Environments
- arxiv url: http://arxiv.org/abs/2012.01245v2
- Date: Tue, 16 Feb 2021 10:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:07:05.911132
- Title: Vision-based Drone Flocking in Outdoor Environments
- Title(参考訳): 視覚ベースのドローンが屋外環境に群がる
- Authors: Fabian Schilling, Fabrizio Schiano, Dario Floreano
- Abstract要約: このレターでは、ドローン群に対する視覚に基づく検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることが示される。
- 参考スコア(独自算出の注目度): 9.184987303791292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized deployment of drone swarms usually relies on inter-agent
communication or visual markers that are mounted on the vehicles to simplify
their mutual detection. This letter proposes a vision-based detection and
tracking algorithm that enables groups of drones to navigate without
communication or visual markers. We employ a convolutional neural network to
detect and localize nearby agents onboard the quadcopters in real-time. Rather
than manually labeling a dataset, we automatically annotate images to train the
neural network using background subtraction by systematically flying a
quadcopter in front of a static camera. We use a multi-agent state tracker to
estimate the relative positions and velocities of nearby agents, which are
subsequently fed to a flocking algorithm for high-level control. The drones are
equipped with multiple cameras to provide omnidirectional visual inputs. The
camera setup ensures the safety of the flock by avoiding blind spots regardless
of the agent configuration. We evaluate the approach with a group of three real
quadcopters that are controlled using the proposed vision-based flocking
algorithm. The results show that the drones can safely navigate in an outdoor
environment despite substantial background clutter and difficult lighting
conditions. The source code, image dataset, and trained detection model are
available at https://github.com/lis-epfl/vswarm.
- Abstract(参考訳): 無人機の分散配置は通常、相互検出を単純化するために、車両に搭載されたエージェント間通信や視覚マーカーに依存する。
このレターは、コミュニケーションや視覚マーカーなしでドローンのグループをナビゲートできるビジョンベースの検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
データセットを手動でラベル付けするのではなく、静止カメラの前でクワッドコプターを系統的に飛行させることで、背景減算を使ってニューラルネットワークをトレーニングするために自動的に画像に注釈を付けます。
マルチエージェント状態トラッカーを用いて近接エージェントの相対位置と速度を推定し,その後,高レベル制御のためのフラッキングアルゴリズムに供給する。
ドローンには全方向の視覚入力を提供する複数のカメラが搭載されている。
カメラ設定は、エージェント構成によらず盲点を回避し、群れの安全性を確保する。
本手法は,提案手法を用いて制御される3つの実クワッドコプター群を用いて評価する。
その結果、背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることがわかった。
ソースコード、イメージデータセット、トレーニングされた検出モデルはhttps://github.com/lis-epfl/vswarm.comで入手できる。
関連論文リスト
- PathFinder: Attention-Driven Dynamic Non-Line-of-Sight Tracking with a Mobile Robot [3.387892563308912]
注目型ニューラルネットワークを用いてLOS(Line-of-sight)ビデオにおける動的逐次フレームのシーケンスを処理する新しい手法を提案する。
我々は,映像撮影のためのドローンによる現場撮影のアプローチを検証し,ダイナミックキャプチャ環境での低コストなNLOSイメージングを実証した。
論文 参考訳(メタデータ) (2024-04-07T17:31:53Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator [22.06785798356346]
本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
論文 参考訳(メタデータ) (2020-08-30T15:20:40Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Built Infrastructure Monitoring and Inspection Using UAVs and
Vision-based Algorithms [2.0305676256390934]
本研究では, 実時間制御無人航空機(UAV)による構造物表面の検査システムを提案する。
本システムは,Wentworthライトレールベース構造である目標構造を調査するために,良好な気象条件下で運用されている。
論文 参考訳(メタデータ) (2020-05-19T14:37:48Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。