論文の概要: UM-Depth : Uncertainty Masked Self-Supervised Monocular Depth Estimation with Visual Odometry
- arxiv url: http://arxiv.org/abs/2509.13713v1
- Date: Wed, 17 Sep 2025 05:51:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.731942
- Title: UM-Depth : Uncertainty Masked Self-Supervised Monocular Depth Estimation with Visual Odometry
- Title(参考訳): UM-Depth : 視力計測による自己監督型単眼深度推定の不確かさ
- Authors: Tae-Wook Um, Ki-Hyeon Kim, Hyun-Duck Choi, Hyo-Sung Ahn,
- Abstract要約: 我々は,動き認識と不確実性認識を組み合わせたフレームワークであるUM-Depthを導入し,深度精度を向上する。
トレーニングパイプラインとネットワークアーキテクチャの両方に不確実性推定を組み込む教師訓練戦略を開発する。
UM-Depthは、KITTIデータセット上で、自己教師付き深度とポーズ推定の両方で最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 3.8323580808203785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular depth estimation has been increasingly adopted in robotics and autonomous driving for its ability to infer scene geometry from a single camera. In self-supervised monocular depth estimation frameworks, the network jointly generates and exploits depth and pose estimates during training, thereby eliminating the need for depth labels. However, these methods remain challenged by uncertainty in the input data, such as low-texture or dynamic regions, which can cause reduced depth accuracy. To address this, we introduce UM-Depth, a framework that combines motion- and uncertainty-aware refinement to enhance depth accuracy at dynamic object boundaries and in textureless regions. Specifically, we develop a teacherstudent training strategy that embeds uncertainty estimation into both the training pipeline and network architecture, thereby strengthening supervision where photometric signals are weak. Unlike prior motion-aware approaches that incur inference-time overhead and rely on additional labels or auxiliary networks for real-time generation, our method uses optical flow exclusively within the teacher network during training, which eliminating extra labeling demands and any runtime cost. Extensive experiments on the KITTI and Cityscapes datasets demonstrate the effectiveness of our uncertainty-aware refinement. Overall, UM-Depth achieves state-of-the-art results in both self-supervised depth and pose estimation on the KITTI datasets.
- Abstract(参考訳): 単眼深度推定は、ロボット工学や自律運転において、単一のカメラからシーン形状を推測する能力として、ますます採用されている。
自己教師付き単眼深度推定フレームワークでは、ネットワークはトレーニング中に深度を共同で生成・活用し、深度ラベルを不要にする。
しかし、これらの手法は、低テクスチャ領域や動的領域などの入力データの不確実性により、深さの精度が低下する可能性がある。
そこで本研究では,動的物体境界やテクスチャレス領域における深度精度を高めるために,動き認識と不確実性認識を併用したフレームワークであるUM-Depthを紹介する。
具体的には、トレーニングパイプラインとネットワークアーキテクチャの両方に不確実性推定を組み込むことで、光度信号の弱さを抑える教師教育戦略を開発する。
提案手法では,教師ネットワーク内のみに光フローを用いることで,追加のラベリング要求やランタイムコストを排除している。
KITTIとCityscapesのデータセットに関する大規模な実験は、不確実性を認識した改善の有効性を実証している。
全体として、UM-Depthは、自監督深度とKITTIデータセットのポーズ推定の両方で最先端の結果を達成する。
関連論文リスト
- Mining Supervision for Dynamic Regions in Self-Supervised Monocular Depth Estimation [23.93080319283679]
既存の手法では、画像再構成損失を中心に、画素の深さと動きを共同で推定する。
動的領域1は、深度と動きの推定に固有の曖昧さのため、これらの手法にとって重要な課題である。
本稿では,動的領域に対する擬似深度ラベルをトレーニングデータから活用する自己教師型トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-23T10:51:15Z) - ADU-Depth: Attention-based Distillation with Uncertainty Modeling for
Depth Estimation [11.92011909884167]
左右のイメージペアを入力として利用する教師ネットワークをトレーニングすることで,空間的手がかりを導入する。
注意適応型特徴蒸留と焦点深度適応型応答蒸留の両方をトレーニング段階で適用した。
実深度推定データセットKITTI と DrivingStereo に関する実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-09-26T08:12:37Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - Self-Supervised Joint Learning Framework of Depth Estimation via
Implicit Cues [24.743099160992937]
深度推定のための自己教師型共同学習フレームワークを提案する。
提案するフレームワークは,KITTIおよびMake3Dデータセット上での最先端(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2020-06-17T13:56:59Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。