論文の概要: The Use of Multi-Scale Fiducial Markers To Aid Takeoff and Landing
Navigation by Rotorcraft
- arxiv url: http://arxiv.org/abs/2309.08769v3
- Date: Tue, 12 Dec 2023 17:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 19:42:32.774264
- Title: The Use of Multi-Scale Fiducial Markers To Aid Takeoff and Landing
Navigation by Rotorcraft
- Title(参考訳): ロータークラフトによる離着陸支援のためのマルチスケールfiducial markerの使用
- Authors: Jongwon Lee, Su Yeon Choi, Timothy Bretl
- Abstract要約: 本稿では,マルチスケールフィデューシャルマーカーを用いた視覚SLAMの性能を定量的に評価する。
各種環境条件下での離着陸時の性能評価を行った。
私たちのデータセットとフィジュアルマーカーによるビジュアルSLAMの実装のコードが、オープンソースとして公開されています。
- 参考スコア(独自算出の注目度): 5.528298061166612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper quantifies the performance of visual SLAM that leverages
multi-scale fiducial markers (i.e., artificial landmarks that can be detected
at a wide range of distances) to show its potential for reliable takeoff and
landing navigation in rotorcraft. Prior work has shown that square markers with
a black-and-white pattern of grid cells can be used to improve the performance
of visual SLAM with color cameras. We extend this prior work to allow nested
marker layouts. We evaluate performance during semi-autonomous takeoff and
landing operations in a variety of environmental conditions by a DJI Matrice
300 RTK rotorcraft with two FLIR Blackfly color cameras, using RTK GNSS to
obtain ground truth pose estimates. Performance measures include absolute
trajectory error and the fraction of the number of estimated poses to the total
frame. We release all of our results -- our dataset and the code of the
implementation of the visual SLAM with fiducial markers -- to the public as
open-source.
- Abstract(参考訳): 本稿では,マルチスケールのfiducial marker(すなわち,幅広い距離で検出可能な人工ランドマーク)を活用した視覚スラムの性能を定量化し,ロータークラフトにおける信頼性の高い離着陸ナビゲーションの可能性を示す。
以前の研究では、グリッドセルの白黒パターンを持つ四角いマーカーは、カラーカメラによるビジュアルスラムのパフォーマンスを改善するために使用できることが示されている。
この前の作業を拡張して、ネストされたマーカーレイアウトを可能にします。
2台のFLIRブラックフライカラーカメラを搭載したDJIマトリス300 RTKロータクラフトを用いて,各種環境条件下での半自律離着陸動作の性能評価を行い,RTK GNSSを用いて地中真実ポーズ推定値を得た。
性能指標には、絶対軌道誤差と、合計フレームに対する推定ポーズ数の分数が含まれる。
私たちのデータセットとfiducial markersを使ったvisual slamの実装のコードは、オープンソースとして公開しています。
関連論文リスト
- Comparative Study of Visual SLAM-Based Mobile Robot Localization Using
Fiducial Markers [4.918853205874711]
本稿では,視覚的SLAMに基づく3つの移動ロボット位置決め方式の比較検討を行った。
SLAMベースのアプローチを比較する理由は、以前の研究が機能のみのメソッドよりも優れたパフォーマンスを示しているためである。
ハードウェア実験では、3つのモードで一貫した軌道誤差レベルを示し、ローカライゼーションモードはその中で最も短いランタイムを示す。
論文 参考訳(メタデータ) (2023-09-08T17:05:24Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Rendering the Directional TSDF for Tracking and Multi-Sensor
Registration with Point-To-Plane Scale ICP [29.998917158604694]
Directional Truncated Signed Distance Dense (DTSDF)は、通常のTSDFの拡張である。
DTSDFから深度と色を描画する手法を提案する。
提案手法は,マップ化されたシーンのトラッキング性能の向上と再使用性の向上を図っている。
論文 参考訳(メタデータ) (2023-01-30T11:46:03Z) - ALTO: A Large-Scale Dataset for UAV Visual Place Recognition and
Localization [22.992887167994766]
ALTOデータセットは、無人航空機の視覚的位置認識手法の開発とベンチマークのためのビジョン中心のデータセットである。
このデータセットは2つの長い(約150kmと260km)軌道から成り、オハイオとペンシルバニアの上空をヘリコプターで飛んでいる。
論文 参考訳(メタデータ) (2022-07-19T21:13:44Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package [7.7016529229597035]
R3LIVEは、LiDAR、慣性、および視覚センサーの測定を利用して、堅牢で正確な状態推定を実現する。
R3LIVEは多彩で多彩なシステムであり、様々な応用が可能である。
当社はR3LIVEをオープンしており、コード、ソフトウェアユーティリティ、デバイスの設計がすべて含まれています。
論文 参考訳(メタデータ) (2021-09-10T22:43:59Z) - ManhattanSLAM: Robust Planar Tracking and Mapping Leveraging Mixture of
Manhattan Frames [41.33367060137042]
RGB-D SLAM システムは屋内のシーンにおける構造情報を活用するために提案され、CPU上での正確な追跡と効率的な高密度マッピングを可能にする。
平面波は地図上のスパース平面から直接発生し,非平面波はスーパーピクセルを抽出して生成する。
提案手法は,ポーズ推定,ドリフト,再構成の精度を,他の最先端手法と比較して高い性能で評価する。
論文 参考訳(メタデータ) (2021-03-28T07:11:57Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Jointly Modeling Motion and Appearance Cues for Robust RGB-T Tracking [85.333260415532]
我々はRGBと熱(T)の両モードの融合重量マップを推定する新しい後期融合法を開発した。
外観キューが信頼できない場合には、動作キューを考慮に入れ、トラッカーを堅牢にする。
最近の3つのRGB-T追跡データセットの多くの結果から、提案したトラッカーは他の最先端のアルゴリズムよりも大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2020-07-04T08:11:33Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。