論文の概要: A Precision Drone Landing System using Visual and IR Fiducial Markers
and a Multi-Payload Camera
- arxiv url: http://arxiv.org/abs/2403.03806v1
- Date: Wed, 6 Mar 2024 15:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:36:41.509922
- Title: A Precision Drone Landing System using Visual and IR Fiducial Markers
and a Multi-Payload Camera
- Title(参考訳): 視覚・赤外線マーカーとマルチペイロードカメラを用いた高精度ドローン着陸システム
- Authors: Joshua Springer, Gylfi {\TH}\'or Gu{\dh}mundsson, Marcel Kyas
- Abstract要約: 本研究では,広角,ズーム,赤外線センサを備えたジンバル搭載カメラとフィデューシャルマーカーを用いた自律精密ドローン着陸手法を提案する。
この方法は最小限のデータ要件を持ち、主にドローンから着陸台への方向に依存する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a method for autonomous precision drone landing with fiducial
markers and a gimbal-mounted, multi-payload camera with wide-angle, zoom, and
IR sensors. The method has minimal data requirements; it depends primarily on
the direction from the drone to the landing pad, enabling it to switch
dynamically between the camera's different sensors and zoom factors, and
minimizing auxiliary sensor requirements. It eliminates the need for data such
as altitude above ground level, straight-line distance to the landing pad,
fiducial marker size, and 6 DoF marker pose (of which the orientation is
problematic). We leverage the zoom and wide-angle cameras, as well as visual
April Tag fiducial markers to conduct successful precision landings from much
longer distances than in previous work (168m horizontal distance, 102m
altitude). We use two types of April Tags in the IR spectrum - active and
passive - for precision landing both at daytime and nighttime, instead of
simple IR beacons used in most previous work. The active IR landing pad is
heated; the novel, passive one is unpowered, at ambient temperature, and
depends on its high reflectivity and an IR differential between the ground and
the sky. Finally, we propose a high-level control policy to manage initial
search for the landing pad and subsequent searches if it is lost - not
addressed in previous work. The method demonstrates successful landings with
the landing skids at least touching the landing pad, achieving an average error
of 0.19m. It also demonstrates successful recovery and landing when the landing
pad is temporarily obscured.
- Abstract(参考訳): 本研究では,広角,ズーム,赤外線センサを備えたジンバル搭載マルチペイロードカメラとフィデューシャルマーカーを用いた自律精密ドローン着陸法を提案する。
この方法は、主にドローンから着陸パッドへの方向に依存するため、カメラの異なるセンサーとズームファクターを動的に切り替えることができ、補助センサーの要求を最小限に抑えることができる。
地上高度、着陸台への直線距離、フィデューシャルマーカーのサイズ、および6つのDoFマーカーのポーズ(その方向が問題である)などのデータを必要としない。
ズームカメラと広角カメラと視覚エイプリルタグのfiducial markersを利用して、これまでの作業(水平168m、高度102m)よりもずっと長い距離から正確な着陸に成功した。
従来の単純なIRビーコンの代わりに、夜間と夜間の両方に正確な着陸を行うために、IRスペクトル(アクティブとパッシブ)に2種類のエイプリルタグを使用する。
アクティブIRランディングパッドは加熱され、新しい受動パッドは、周囲の温度で非力であり、高い反射率と地上と空の間の赤外線差に依存する。
最後に,着陸パッドの初期探索と,失われた場合は後続の探索を管理するための高レベル制御ポリシーを提案する。
この方法は、少なくとも着陸パッドに触れて着陸に成功し、平均誤差は0.19mである。
また、着陸台が一時的にあいまいになったときの回収と着陸も成功している。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - Vision-based Target Pose Estimation with Multiple Markers for the
Perching of UAVs [0.0]
本稿では,複数のマーカーを用いた視覚的ターゲットポーズ推定手法を提案する。
より大きなものの内部に小さなマーカーが付いたエンチングターゲットは、広範囲かつ近距離での検知能力を改善するように設計されている。
ポーズは、位置制御器に送られ、ドローンとマーカーの中央を調整し、ターゲットのパーチを操縦する。
論文 参考訳(メタデータ) (2023-04-25T16:51:10Z) - Towards Robust Drone Vision in the Wild [1.14219428942199]
本稿では,ドローンビジョンのための画像超解像データセットを提案する。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
異なる高度で頑健な画像超解像ネットワークを構築するための2つの手法が提案されている。
論文 参考訳(メタデータ) (2022-08-21T18:19:19Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。