論文の概要: Vision-based Target Pose Estimation with Multiple Markers for the
Perching of UAVs
- arxiv url: http://arxiv.org/abs/2304.14838v1
- Date: Tue, 25 Apr 2023 16:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 16:14:34.187255
- Title: Vision-based Target Pose Estimation with Multiple Markers for the
Perching of UAVs
- Title(参考訳): UAVのパーチのためのマルチマーカーを用いた視覚的目標位置推定
- Authors: Truong-Dong Do, Nguyen Xuan-Mung and Sung-Kyung Hong
- Abstract要約: 本稿では,複数のマーカーを用いた視覚的ターゲットポーズ推定手法を提案する。
より大きなものの内部に小さなマーカーが付いたエンチングターゲットは、広範囲かつ近距離での検知能力を改善するように設計されている。
ポーズは、位置制御器に送られ、ドローンとマーカーの中央を調整し、ターゲットのパーチを操縦する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Nano Aerial Vehicles have been increasingly popular in
surveillance and monitoring operations due to their efficiency and
maneuverability. Once a target location has been reached, drones do not have to
remain active during the mission. It is possible for the vehicle to perch and
stop its motors in such situations to conserve energy, as well as maintain a
static position in unfavorable flying conditions. In the perching target
estimation phase, the steady and accuracy of a visual camera with markers is a
significant challenge. It is rapidly detectable from afar when using a large
marker, but when the drone approaches, it quickly disappears as out of camera
view. In this paper, a vision-based target poses estimation method using
multiple markers is proposed to deal with the above-mentioned problems. First,
a perching target with a small marker inside a larger one is designed to
improve detection capability at wide and close ranges. Second, the relative
poses of the flying vehicle are calculated from detected markers using a
monocular camera. Next, a Kalman filter is applied to provide a more stable and
reliable pose estimation, especially when the measurement data is missing due
to unexpected reasons. Finally, we introduced an algorithm for merging the
poses data from multi markers. The poses are then sent to the position
controller to align the drone and the marker's center and steer it to perch on
the target. The experimental results demonstrated the effectiveness and
feasibility of the adopted approach. The drone can perch successfully onto the
center of the markers with the attached 25mm-diameter rounded magnet.
- Abstract(参考訳): 自律型ナノ航空機は、その効率性と操縦性のために、監視および監視活動でますます人気を集めている。
目標地点に到達すると、ドローンは任務の間も活動し続けなければならない。
車両はそのような状況下でモーターをパーチし停止させ、エネルギーを節約し、また、好ましくない飛行条件下で静止位置を維持することができる。
パーチング目標推定フェーズでは,マーカを備えた視覚カメラの定常的かつ高精度化が大きな課題である。
大きなマーカーを使用すると、遠くから素早く検出できますが、ドローンが近づくと、カメラの視界からすぐに消えてしまいます。
本稿では,上記の問題に対処するために,複数のマーカーを用いた視覚的ターゲットポーズ推定手法を提案する。
まず, より広い範囲で検出能力を向上させるため, 小型のマーカーを内蔵したパーチングターゲットの設計を行った。
第2に、単眼カメラを用いて検出されたマーカーから飛行車両の相対的なポーズを算出する。
次にカルマンフィルタを適用し、特に予期せぬ理由により測定データが欠落している場合に、より安定して信頼性の高いポーズ推定を行う。
最後に,複数マーカーからのポーズデータをマージするアルゴリズムを導入した。
その後、ポーズは位置制御装置に送られ、ドローンとマーカーの中央を調整し、ターゲットのパーチに操る。
実験の結果,本手法の有効性と有効性が示された。
ドローンは25mmの丸みを帯びた磁石でマーカーの中央に到達することができる。
関連論文リスト
- A Monocular Event-Camera Motion Capture System [22.30914818152441]
本稿では,この制限を克服し,狭い空間に適した単眼イベントカメラモーションキャプチャシステムについて述べる。
受動的マーカーの代わりにLEDマーカーを点滅させ、各マーカーを方向周波数から一意に識別できるようにしている。
開発したシステムにはミリ秒の精度,ミリ秒のレイテンシがあり,その状態推定がアジャイルな小型クオータの飛行に有効であることを示す。
論文 参考訳(メタデータ) (2025-02-17T18:38:27Z) - Detection and tracking of MAVs using a LiDAR with rosette scanning pattern [2.062195473318468]
本研究は,パンティルト・ターレット上の低コストロゼットスキャンLiDARを用いてMAVの検出と追跡を行う手法を提案する。
トラッキングにより、ターゲットの3Dポイントの密度をLiDARセンサーで最大化して、MAVを中央に保持することができる。
論文 参考訳(メタデータ) (2024-08-16T06:40:20Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。