論文の概要: Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations
- arxiv url: http://arxiv.org/abs/2011.07008v3
- Date: Tue, 17 Nov 2020 10:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:38:49.350423
- Title: Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations
- Title(参考訳): 直接・間接観測によるLiDARと魚眼カメラを用いた相対ドローン群車両位置推定
- Authors: Jan Hausberg, Ryoichi Ishikawa, Menandro Roxas, Takeshi Oishi
- Abstract要約: 本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the pose of an unmanned aerial vehicle (UAV) or drone is a
challenging task. It is useful for many applications such as navigation,
surveillance, tracking objects on the ground, and 3D reconstruction. In this
work, we present a LiDAR-camera-based relative pose estimation method between a
drone and a ground vehicle, using a LiDAR sensor and a fisheye camera on the
vehicle's roof and another fisheye camera mounted under the drone. The LiDAR
sensor directly observes the drone and measures its position, and the two
cameras estimate the relative orientation using indirect observation of the
surrounding objects. We propose a dynamically adaptive kernel-based method for
drone detection and tracking using the LiDAR. We detect vanishing points in
both cameras and find their correspondences to estimate the relative
orientation. Additionally, we propose a rotation correction technique by
relying on the observed motion of the drone through the LiDAR. In our
experiments, we were able to achieve very fast initial detection and real-time
tracking of the drone. Our method is fully automatic.
- Abstract(参考訳): 無人航空機(UAV)やドローンの姿勢を推定することは難しい作業である。
ナビゲーション、監視、地上の物体の追跡、および3d再構成といった多くの用途に有用である。
そこで本研究では,LiDARセンサと魚眼カメラを車体屋根に装着した魚眼カメラを用いて,ドローンと地上車両との間の相対ポーズ推定手法を提案する。
LiDARセンサーはドローンを直接観測し、その位置を計測し、2台のカメラは周囲の物体を間接観測して相対方向を推定する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
両カメラの消失点を検出し,その対応関係を見つけ,相対方向を推定する。
さらに,LiDARによるドローンの観測動作に依存する回転補正手法を提案する。
実験では、非常に高速な初期検出と、ドローンのリアルタイム追跡を実現しました。
私たちの方法は完全自動です。
関連論文リスト
- 3D Trajectory Reconstruction of Drones using a Single Camera [0.5937476291232799]
一つのカメラでドローンの3次元軌道を再構築するための新しい枠組みを提案する。
ドローンを2D画像で自動的に追跡し、その2Dローテーションを推定する。
パブリックなドローンデータセットの欠如に対処するため、合成された2Dおよび3Dドローンデータセットも作成します。
論文 参考訳(メタデータ) (2023-09-06T07:39:51Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - Vision-based Target Pose Estimation with Multiple Markers for the
Perching of UAVs [0.0]
本稿では,複数のマーカーを用いた視覚的ターゲットポーズ推定手法を提案する。
より大きなものの内部に小さなマーカーが付いたエンチングターゲットは、広範囲かつ近距離での検知能力を改善するように設計されている。
ポーズは、位置制御器に送られ、ドローンとマーカーの中央を調整し、ターゲットのパーチを操縦する。
論文 参考訳(メタデータ) (2023-04-25T16:51:10Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator [22.06785798356346]
本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
論文 参考訳(メタデータ) (2020-08-30T15:20:40Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。