論文の概要: The Use of Multi-Scale Fiducial Markers To Aid Takeoff and Landing
Navigation by Rotorcraft
- arxiv url: http://arxiv.org/abs/2309.08769v2
- Date: Tue, 5 Dec 2023 20:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 18:28:24.491769
- Title: The Use of Multi-Scale Fiducial Markers To Aid Takeoff and Landing
Navigation by Rotorcraft
- Title(参考訳): ロータークラフトによる離着陸支援のためのマルチスケールfiducial markerの使用
- Authors: Jongwon Lee, Su Yeon Choi, Timothy Bretl
- Abstract要約: 本稿では,マルチスケールフィデューシャルマーカーを用いた視覚SLAMの性能を定量的に評価する。
各種環境条件下での離着陸時の性能評価を行った。
私たちのデータセットとフィジュアルマーカーによるビジュアルSLAMの実装のコードが、オープンソースとして公開されています。
- 参考スコア(独自算出の注目度): 5.528298061166612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper quantifies the performance of visual SLAM that leverages
multi-scale fiducial markers (i.e., artificial landmarks that can be detected
at a wide range of distances) to show its potential for reliable takeoff and
landing navigation in rotorcraft. Prior work has shown that square markers with
a black-and-white pattern of grid cells can be used to improve the performance
of visual SLAM with color cameras. We extend this prior work to allow nested
marker layouts. We evaluate performance during semi-autonomous takeoff and
landing operations in a variety of environmental conditions by a DJI Matrice
300 RTK rotorcraft with two FLIR Blackfly color cameras, using RTK GNSS to
obtain ground truth pose estimates. Performance measures include absolute
trajectory error and the fraction of the number of estimated poses to the total
frame. We release all of our results -- our dataset and the code of the
implementation of the visual SLAM with fiducial markers -- to the public as
open-source.
- Abstract(参考訳): 本稿では,マルチスケールのfiducial marker(すなわち,幅広い距離で検出可能な人工ランドマーク)を活用した視覚スラムの性能を定量化し,ロータークラフトにおける信頼性の高い離着陸ナビゲーションの可能性を示す。
以前の研究では、グリッドセルの白黒パターンを持つ四角いマーカーは、カラーカメラによるビジュアルスラムのパフォーマンスを改善するために使用できることが示されている。
この前の作業を拡張して、ネストされたマーカーレイアウトを可能にします。
2台のFLIRブラックフライカラーカメラを搭載したDJIマトリス300 RTKロータクラフトを用いて,各種環境条件下での半自律離着陸動作の性能評価を行い,RTK GNSSを用いて地中真実ポーズ推定値を得た。
性能指標には、絶対軌道誤差と、合計フレームに対する推定ポーズ数の分数が含まれる。
私たちのデータセットとfiducial markersを使ったvisual slamの実装のコードは、オープンソースとして公開しています。
関連論文リスト
- YoloTag: Vision-based Robust UAV Navigation with Fiducial Markers [2.7855886538423182]
リアルタイムな画像マーカーに基づく位置決めシステムであるYoloTagを提案する。
YoloTagは軽量のYOLO v8オブジェクト検出器を使用して、画像中の画像マーカーを正確に検出する。
検出されたマーカーは、UAV状態を推定するために効率的な視点-n-pointアルゴリズムによって使用される。
論文 参考訳(メタデータ) (2024-09-03T23:42:19Z) - Machine Learning Models for Improved Tracking from Range-Doppler Map Images [1.3654846342364306]
地中移動目標指標(GMTI)レーダのレンジ・ドップラー・マップ(RDM)画像におけるターゲット検出と不確実性推定のための新しい機械学習モデルを提案する。
これらのモデルの出力を用いることで、複雑なマルチターゲット空対地追跡シナリオに対して、複数の仮説トラッカーの性能を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-03T14:20:24Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Rendering the Directional TSDF for Tracking and Multi-Sensor
Registration with Point-To-Plane Scale ICP [29.998917158604694]
Directional Truncated Signed Distance Dense (DTSDF)は、通常のTSDFの拡張である。
DTSDFから深度と色を描画する手法を提案する。
提案手法は,マップ化されたシーンのトラッキング性能の向上と再使用性の向上を図っている。
論文 参考訳(メタデータ) (2023-01-30T11:46:03Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package [7.7016529229597035]
R3LIVEは、LiDAR、慣性、および視覚センサーの測定を利用して、堅牢で正確な状態推定を実現する。
R3LIVEは多彩で多彩なシステムであり、様々な応用が可能である。
当社はR3LIVEをオープンしており、コード、ソフトウェアユーティリティ、デバイスの設計がすべて含まれています。
論文 参考訳(メタデータ) (2021-09-10T22:43:59Z) - ManhattanSLAM: Robust Planar Tracking and Mapping Leveraging Mixture of
Manhattan Frames [41.33367060137042]
RGB-D SLAM システムは屋内のシーンにおける構造情報を活用するために提案され、CPU上での正確な追跡と効率的な高密度マッピングを可能にする。
平面波は地図上のスパース平面から直接発生し,非平面波はスーパーピクセルを抽出して生成する。
提案手法は,ポーズ推定,ドリフト,再構成の精度を,他の最先端手法と比較して高い性能で評価する。
論文 参考訳(メタデータ) (2021-03-28T07:11:57Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Jointly Modeling Motion and Appearance Cues for Robust RGB-T Tracking [85.333260415532]
我々はRGBと熱(T)の両モードの融合重量マップを推定する新しい後期融合法を開発した。
外観キューが信頼できない場合には、動作キューを考慮に入れ、トラッカーを堅牢にする。
最近の3つのRGB-T追跡データセットの多くの結果から、提案したトラッカーは他の最先端のアルゴリズムよりも大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2020-07-04T08:11:33Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。