論文の概要: RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments
- arxiv url: http://arxiv.org/abs/2310.15072v3
- Date: Fri, 16 Feb 2024 08:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:08:57.485674
- Title: RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments
- Title(参考訳): RD-VIO:動的環境における移動拡張現実のためのロバスト視覚慣性オドメトリー
- Authors: Jinyu Li, Xiaokun Pan, Gan Huang, Ziyang Zhang, Nan Wang, Hujun Bao,
Guofeng Zhang
- Abstract要約: 視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
- 参考スコア(独自算出の注目度): 55.864869961717424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is typically challenging for visual or visual-inertial odometry systems to
handle the problems of dynamic scenes and pure rotation. In this work, we
design a novel visual-inertial odometry (VIO) system called RD-VIO to handle
both of these two problems. Firstly, we propose an IMU-PARSAC algorithm which
can robustly detect and match keypoints in a two-stage process. In the first
state, landmarks are matched with new keypoints using visual and IMU
measurements. We collect statistical information from the matching and then
guide the intra-keypoint matching in the second stage. Secondly, to handle the
problem of pure rotation, we detect the motion type and adapt the
deferred-triangulation technique during the data-association process. We make
the pure-rotational frames into the special subframes. When solving the
visual-inertial bundle adjustment, they provide additional constraints to the
pure-rotational motion. We evaluate the proposed VIO system on public datasets
and online comparison. Experiments show the proposed RD-VIO has obvious
advantages over other methods in dynamic environments. The source code is
available at:
\href{https://github.com/openxrlab/xrslam}{{\fontfamily{pcr}\selectfont
https://github.com/openxrlab/xrslam}}.
- Abstract(参考訳): 典型的には、視覚または視覚慣性オドメトリシステムが動的シーンと純粋回転の問題を扱うのが困難である。
本研究では,これら2つの問題に対処するために,RD-VIOと呼ばれる新しい視覚慣性オドメトリー(VIO)システムを設計する。
まず,2段階プロセスにおいてキーポイントを頑健に検出し,一致させることができるIMU-PARSACアルゴリズムを提案する。
最初の状態では、ランドマークは視覚的およびIMU測定を使用して新しいキーポイントと一致します。
マッチングから統計情報を収集し,第2段階のキーポイント内マッチングを導出する。
次に, 純粋回転の問題に対処するために, 運動タイプを検知し, データ結合過程において遅延三角法を適応させる。
純粋な回転フレームを特別なサブフレームにします。
視覚-慣性束調整を解く際には、純粋回転運動にさらなる制約を与える。
提案するVIOシステムは,公開データセットとオンライン比較に基づいて評価する。
実験により、RD-VIOは動的環境における他の手法よりも明らかに有利であることが示された。
ソースコードは \href{https://github.com/openxrlab/xrslam}{{\fontfamily{pcr}\selectfont https://github.com/openxrlab/xrslam}} で入手できる。
関連論文リスト
- Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile
Agents [43.137917788594926]
幾何学的特徴に基づく密結合LiDAR視覚SLAMを提案する。
視覚サブシステムによって検出された全ラインセグメントは、LiDARサブシステムの制限を克服する。
本システムは,現在最先端のマルチモーダル手法と比較して,より正確でロバストなポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-07-15T10:06:43Z) - DH-PTAM: A Deep Hybrid Stereo Events-Frames Parallel Tracking And Mapping System [1.443696537295348]
本稿では,視覚的並列追跡・マッピング(PTAM)システムに対するロバストなアプローチを提案する。
提案手法は,異種多モード視覚センサの強度を統一参照フレームに組み合わせたものである。
私たちの実装のリサーチベースのPython APIはGitHubで公開されています。
論文 参考訳(メタデータ) (2023-06-02T19:52:13Z) - Visual Odometry with Neuromorphic Resonator Networks [9.903137966539898]
視覚オドメトリー(英語: Visual Odometry, VO)は、視覚センサを用いた移動ロボットの自走を推定する手法である。
ニューロモルフィックハードウェアは多くのビジョンとAI問題に対する低消費電力のソリューションを提供する。
本稿では,2次元VOタスクにおける最先端性能を実現するモジュール型ニューロモルフィックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-05T14:57:03Z) - E-Graph: Minimal Solution for Rigid Rotation with Extensibility Graphs [61.552125054227595]
重なり合う領域を持たない2つの画像間の相対的な回転推定を解くために,新しい最小解を提案する。
E-Graphに基づいて、回転推定問題はより単純でエレガントになる。
回転推定戦略を6-DoFカメラのポーズと高密度3Dメッシュモデルを得る完全カメラ追跡マッピングシステムに組み込む。
論文 参考訳(メタデータ) (2022-07-20T16:11:48Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Deep Learning based Virtual Point Tracking for Real-Time Target-less
Dynamic Displacement Measurement in Railway Applications [0.0]
ディープラーニング技術とドメイン知識を組み込んだリアルタイムターゲットレス動的変位測定のための仮想ポイントトラッキングを提案します。
そこで本研究では, 運転中にレールの車輪の水平変位を計測した鉄道への適用例を示す。
論文 参考訳(メタデータ) (2021-01-17T16:19:47Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments [35.663671249819124]
本稿では,視点変化と知覚的エイリアスを同時に扱う新しい研究を提案する。
本稿では,VPRとSLAMの統合により,VPRの性能向上,特徴対応,グラフサブモジュールのポーズが著しく促進されることを示す。
知覚的エイリアス化や180度回転する極端な視点変化に拘わらず,最先端のパフォーマンスを実現するローカライズシステムについて初めて紹介する。
論文 参考訳(メタデータ) (2020-10-03T20:18:55Z) - RANSAC-Flow: generic two-stage image alignment [53.11926395028508]
単純な教師なしのアプローチは、様々なタスクにおいて驚くほどうまく機能することを示す。
その単純さにもかかわらず、我々の手法は様々なタスクやデータセットで競合する結果を示す。
論文 参考訳(メタデータ) (2020-04-03T12:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。