論文の概要: A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2306.09591v1
- Date: Fri, 16 Jun 2023 02:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 15:18:12.174189
- Title: A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles
- Title(参考訳): 視覚に基づくナノ空気自動車の自律パーチ手法
- Authors: Truong-Dong Do, Sung Kyung Hong
- Abstract要約: ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decades, quadcopters have been investigated, due to their
mobility and flexibility to operate in a wide range of environments. They have
been used in various areas, including surveillance and monitoring. During a
mission, drones do not have to remain active once they have reached a target
location. To conserve energy and maintain a static position, it is possible to
perch and stop the motors in such situations. The problem of achieving a
reliable and highly accurate perching method remains a challenge and promising.
In this paper, a vision-based autonomous perching approach for nano quadcopters
onto a predefined perching target on horizontal surfaces is proposed. First, a
perching target with a small marker inside a larger one is designed to improve
detection capability at a variety of ranges. Second, a monocular camera is used
to calculate the relative poses of the flying vehicle from the markers
detected. Then, a Kalman filter is applied to determine the pose more reliably,
especially when measurement data is missing. Next, we introduce an algorithm
for merging the pose data from multiple markers. Finally, the poses are sent to
the perching planner to conduct the real flight test to align the drone with
the target's center and steer it there. Based on the experimental results, the
approach proved to be effective and feasible. The drone can successfully perch
on the center of markers within two centimeters of precision.
- Abstract(参考訳): 過去何十年もの間、クワッドコプターは様々な環境で作動する機動性と柔軟性のために研究されてきた。
監視や監視など、さまざまな分野で使用されている。
ミッションの間、ドローンは目標地点に到達した後も活動を続ける必要はない。
エネルギーを節約し静的な位置を維持するために、そのような状況でモータをパーチして停止させることができる。
信頼性が高く,高精度なパーチ手法を実現するという問題は,依然として課題であり,有望である。
本稿では,ナノクワッドコプターを水平面上における予め定義されたパーチターゲットに自律的なパーチ手法を提案する。
まず、より広い範囲の検知能力を向上させるために、小さなマーカーを内蔵したパーチングターゲットを設計する。
第二に、検出されたマーカーから飛行車両の相対的なポーズを計算するために単眼カメラを用いる。
そして、カルマンフィルタを適用して、特に測定データが欠落している場合に、より確実にポーズを決定する。
次に,複数のマーカーからのポーズデータをマージするアルゴリズムを提案する。
そして最後に、ポーズを打つプランナーに送られ、実際の飛行テストを行い、ドローンを目標の中心と整列させ、そこで操縦する。
実験結果から, 本手法は有効かつ有効であることが判明した。
ドローンは2cmの精度でマーカーの中心に到達することができる。
関連論文リスト
- Detection and tracking of MAVs using a LiDAR with rosette scanning pattern [2.062195473318468]
本研究は,パンティルト・ターレット上の低コストロゼットスキャンLiDARを用いてMAVの検出と追跡を行う手法を提案する。
トラッキングにより、ターゲットの3Dポイントの密度をLiDARセンサーで最大化して、MAVを中央に保持することができる。
論文 参考訳(メタデータ) (2024-08-16T06:40:20Z) - Vision-based Target Pose Estimation with Multiple Markers for the
Perching of UAVs [0.0]
本稿では,複数のマーカーを用いた視覚的ターゲットポーズ推定手法を提案する。
より大きなものの内部に小さなマーカーが付いたエンチングターゲットは、広範囲かつ近距離での検知能力を改善するように設計されている。
ポーズは、位置制御器に送られ、ドローンとマーカーの中央を調整し、ターゲットのパーチを操縦する。
論文 参考訳(メタデータ) (2023-04-25T16:51:10Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。