論文の概要: An Online Adaptation Method for Robust Depth Estimation and Visual Odometry in the Open World
- arxiv url: http://arxiv.org/abs/2504.11698v1
- Date: Wed, 16 Apr 2025 01:48:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:48.336548
- Title: An Online Adaptation Method for Robust Depth Estimation and Visual Odometry in the Open World
- Title(参考訳): オープンワールドにおけるロバスト深さ推定とビジュアルオドメトリーのためのオンライン適応法
- Authors: Xingwu Ji, Haochen Niu, Dexin Duan, Rendong Ying, Fei Wen, Peilin Liu,
- Abstract要約: 多様な新しい環境にオンラインで適応できるビジュアル・オドメトリーシステムの開発を行う。
本研究では,視覚計測システムの出力に基づいて,深度推定モジュールの自己教師型学習を目的とした。
提案手法のロバスト性と一般化能力について,都市,社内データセット,ロボットプラットフォームに対する最先端の学習ベースアプローチと比較した。
- 参考スコア(独自算出の注目度): 16.387434563802532
- License:
- Abstract: Recently, learning-based robotic navigation systems have gained extensive research attention and made significant progress. However, the diversity of open-world scenarios poses a major challenge for the generalization of such systems to practical scenarios. Specifically, learned systems for scene measurement and state estimation tend to degrade when the application scenarios deviate from the training data, resulting to unreliable depth and pose estimation. Toward addressing this problem, this work aims to develop a visual odometry system that can fast adapt to diverse novel environments in an online manner. To this end, we construct a self-supervised online adaptation framework for monocular visual odometry aided by an online-updated depth estimation module. Firstly, we design a monocular depth estimation network with lightweight refiner modules, which enables efficient online adaptation. Then, we construct an objective for self-supervised learning of the depth estimation module based on the output of the visual odometry system and the contextual semantic information of the scene. Specifically, a sparse depth densification module and a dynamic consistency enhancement module are proposed to leverage camera poses and contextual semantics to generate pseudo-depths and valid masks for the online adaptation. Finally, we demonstrate the robustness and generalization capability of the proposed method in comparison with state-of-the-art learning-based approaches on urban, in-house datasets and a robot platform. Code is publicly available at: https://github.com/jixingwu/SOL-SLAM.
- Abstract(参考訳): 近年,学習型ロボットナビゲーションシステムの研究が盛んになり,大きな進歩を遂げている。
しかし、オープンワールドシナリオの多様性は、そのようなシステムを現実的なシナリオに一般化する上で大きな課題となる。
具体的には、シーン計測と状態推定の学習システムは、アプリケーションのシナリオがトレーニングデータから逸脱し、信頼性の低い深さとポーズ推定が生じると劣化する傾向にある。
本研究の目的は,多様な新しい環境をオンラインで迅速に適応できる視覚計測システムを開発することである。
この目的のために,オンライン更新深度推定モジュールによって支援された単眼視覚計測のための自己教師付きオンライン適応フレームワークを構築した。
まず,軽量モジュールを用いた単眼深度推定ネットワークを設計し,効率的なオンライン適応を実現する。
そこで我々は,視覚計測システムの出力とシーンの文脈意味情報に基づいて,深度推定モジュールの自己教師型学習の目的を構築した。
具体的には、カメラポーズと文脈意味論を利用して擬似深度とオンライン適応のための有効なマスクを生成するために、スパース深度密度モジュールと動的整合性強化モジュールを提案する。
最後に,提案手法のロバスト性と一般化能力について,都市,社内データセット,ロボットプラットフォームに対する最先端の学習ベースアプローチと比較した。
コードは、https://github.com/jixingwu/SOL-SLAM.comで公開されている。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Robust Visual Odometry Using Position-Aware Flow and Geometric Bundle
Adjustment [16.04240592057438]
まず,位置認識機構上に構築された新しい光フローネットワーク(PANet)を提案する。
そこで本研究では,エゴモーション学習のための典型的なネットワークを使わずに,深度,光学的流れ,エゴモーションを共同で推定するシステムを提案する。
実験により,提案システムは深度,流れ,VO推定の点で,他の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-22T12:05:27Z) - A Deeper Look into DeepCap [96.67706102518238]
そこで本研究では,単分子密集型人間のパフォーマンスキャプチャのための新しい深層学習手法を提案する。
本手法は,多視点監視に基づく弱教師付き方式で訓練されている。
我々のアプローチは、品質と堅牢性の観点から、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2021-11-20T11:34:33Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Generalizing to the Open World: Deep Visual Odometry with Online
Adaptation [27.22639812204019]
本稿では,シーン非依存な幾何計算とベイズ推論の助けを借りて,ディープvoのオンライン適応フレームワークを提案する。
本手法は,自己監視型VO法における最先端の一般化能力を実現する。
論文 参考訳(メタデータ) (2021-03-29T02:13:56Z) - Continual Adaptation for Deep Stereo [52.181067640300014]
本稿では,難易度と変化の激しい環境に対処するために,深層ステレオネットワークの継続的適応パラダイムを提案する。
我々のパラダイムでは、オンラインモデルに継続的に適応するために必要な学習信号は、右から左への画像ワープや従来のステレオアルゴリズムによって自己監督から得られる。
我々のネットワークアーキテクチャと適応アルゴリズムは、初めてのリアルタイム自己適応型ディープステレオシステムを実現する。
論文 参考訳(メタデータ) (2020-07-10T08:15:58Z) - Towards Better Generalization: Joint Depth-Pose Learning without PoseNet [36.414471128890284]
自己教師型共同深層学習におけるスケール不整合の本質的問題に対処する。
既存の手法の多くは、全ての入力サンプルで一貫した深さとポーズを学習できると仮定している。
本稿では,ネットワーク推定からスケールを明示的に切り離す新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-04-03T00:28:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。