論文の概要: MDE-VIO: Enhancing Visual-Inertial Odometry Using Learned Depth Priors
- arxiv url: http://arxiv.org/abs/2602.11323v1
- Date: Wed, 11 Feb 2026 19:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.514245
- Title: MDE-VIO: Enhancing Visual-Inertial Odometry Using Learned Depth Priors
- Title(参考訳): MDE-VIO:学習深度を用いた視覚慣性オドメトリーの強化
- Authors: Arda Alniak, Sinan Kalkan, Mustafa Mert Ankarali, Afsar Saranli, Abdullah Aydin Alatan,
- Abstract要約: 本稿では,アフィン不変深度一貫性と対方向順序制約を強制する新しいフレームワークを提案する。
このアプローチは、計量スケールを頑健に回復しながら、エッジデバイスの計算限界に厳密に固執する。
- 参考スコア(独自算出の注目度): 8.2208199207543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional monocular Visual-Inertial Odometry (VIO) systems struggle in low-texture environments where sparse visual features are insufficient for accurate pose estimation. To address this, dense Monocular Depth Estimation (MDE) has been widely explored as a complementary information source. While recent Vision Transformer (ViT) based complex foundational models offer dense, geometrically consistent depth, their computational demands typically preclude them from real-time edge deployment. Our work bridges this gap by integrating learned depth priors directly into the VINS-Mono optimization backend. We propose a novel framework that enforces affine-invariant depth consistency and pairwise ordinal constraints, explicitly filtering unstable artifacts via variance-based gating. This approach strictly adheres to the computational limits of edge devices while robustly recovering metric scale. Extensive experiments on the TartanGround and M3ED datasets demonstrate that our method prevents divergence in challenging scenarios and delivers significant accuracy gains, reducing Absolute Trajectory Error (ATE) by up to 28.3%. Code will be made available.
- Abstract(参考訳): 従来のモノクラー視覚-慣性オドメトリー(VIO)システムは、粗い視覚的特徴が正確なポーズ推定に不十分な低テクスチャ環境に苦しむ。
これを解決するために、高密度な単分子深度推定(MDE)が相補的な情報ソースとして広く研究されている。
最近のVision Transformer (ViT) ベースの複雑な基礎モデルは密度が高く、幾何的に一貫した深さを提供するが、その計算要求は一般にリアルタイムのエッジ展開を妨げている。
私たちの作業は、VINS-Mono最適化バックエンドに直接、学習した深度を組み込むことで、このギャップを埋めます。
本稿では,アフィン不変深度一貫性と対方向順序制約を強制する新しいフレームワークを提案し,分散に基づくゲーティングにより不安定なアーティファクトを明示的にフィルタリングする。
このアプローチは、計量スケールを頑健に回復しながら、エッジデバイスの計算限界に厳密に固執する。
TartanGroundとM3EDデータセットの大規模な実験は、我々の手法が難解なシナリオのばらつきを防止し、大幅な精度向上を実現し、絶対軌道誤差(ATE)を最大28.3%削減することを示した。
コードは利用可能になる。
関連論文リスト
- GVGS: Gaussian Visibility-Aware Multi-View Geometry for Accurate Surface Reconstruction [15.170414649311441]
3D Gaussian Splattingは効率的な最適化と高品質なレンダリングを実現するが、正確な表面再構成は難しいままである。
ビュー間で共有されたガウス的プリミティブの可視性を集約する、可視性を考慮した多視点幾何的整合性制約を導入する。
また,粗い空間スケールから細かな空間スケールへのブロックワイドアフィンキャリブレーションを行う,プログレッシブクワッドツリー校正単分子深度制約を提案する。
論文 参考訳(メタデータ) (2026-01-28T07:48:51Z) - Depth Anything with Any Prior [64.39991799606146]
Prior Depth Anythingは、深さ測定における不完全だが正確な計量情報と深さ予測における相対的だが完全な幾何学的構造を組み合わせたフレームワークである。
本研究では, 単眼深度推定(MDE)モデルを構築し, 深度推定の固有ノイズを改良する。
われわれのモデルは、7つの現実世界のデータセットにまたがる深度補完、超高解像度、インパインティングという、印象的なゼロショットの一般化を見せている。
論文 参考訳(メタデータ) (2025-05-15T17:59:50Z) - Relative Pose Estimation through Affine Corrections of Monocular Depth Priors [69.59216331861437]
本研究では,独立なアフィン(スケールとシフト)のあいまいさを明示的に考慮した相対ポーズ推定のための3つの解法を開発した。
提案する解法と古典的点ベース解法とエピポーラ制約を組み合わせたハイブリッド推定パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:58:30Z) - AGS-Mesh: Adaptive Gaussian Splatting and Meshing with Geometric Priors for Indoor Room Reconstruction Using Smartphones [19.429461194706786]
室内シーンの正確な3次元再構成のためのガウススメッティング法における接合面深度と正規化のアプローチを提案する。
我々のフィルタリング戦略と最適化設計は、メッシュ推定と新規ビュー合成の両方において大きな改善を示す。
論文 参考訳(メタデータ) (2024-11-28T17:04:32Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - MGS-SLAM: Monocular Sparse Tracking and Gaussian Mapping with Depth Smooth Regularization [29.713650915551632]
本稿では,ガウススプラッティングに基づく濃密な視覚的局所化とマッピングのための新しいフレームワークを紹介する。
疎視度追跡と3次元ガウススプラッティングのシーン表現を初めて共同で最適化する。
ポーズ推定の精度は既存の手法や最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-05-10T04:42:21Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。