論文の概要: Perfecting Depth: Uncertainty-Aware Enhancement of Metric Depth
- arxiv url: http://arxiv.org/abs/2506.04612v1
- Date: Thu, 05 Jun 2025 04:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.523476
- Title: Perfecting Depth: Uncertainty-Aware Enhancement of Metric Depth
- Title(参考訳): 完璧な深さ:不確かさを意識したメートル奥行きの増強
- Authors: Jinyoung Jun, Lei Chu, Jiahao Li, Yan Lu, Chang-Su Kim,
- Abstract要約: そこで我々はPerfecting Depthと呼ばれるセンサ深度向上のための新しい2段階フレームワークを提案する。
このフレームワークは拡散モデルの性質を活用し、幾何学的手がかりを保持しながら信頼できない深さ領域を自動的に検出する。
我々のフレームワークは、センサー深度向上のための新しいベースラインを設定し、自動運転、ロボティクス、没入型技術に応用できる可能性がある。
- 参考スコア(独自算出の注目度): 33.61994004497114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel two-stage framework for sensor depth enhancement, called Perfecting Depth. This framework leverages the stochastic nature of diffusion models to automatically detect unreliable depth regions while preserving geometric cues. In the first stage (stochastic estimation), the method identifies unreliable measurements and infers geometric structure by leveraging a training-inference domain gap. In the second stage (deterministic refinement), it enforces structural consistency and pixel-level accuracy using the uncertainty map derived from the first stage. By combining stochastic uncertainty modeling with deterministic refinement, our method yields dense, artifact-free depth maps with improved reliability. Experimental results demonstrate its effectiveness across diverse real-world scenarios. Furthermore, theoretical analysis, various experiments, and qualitative visualizations validate its robustness and scalability. Our framework sets a new baseline for sensor depth enhancement, with potential applications in autonomous driving, robotics, and immersive technologies.
- Abstract(参考訳): そこで我々はPerfecting Depthと呼ばれるセンサ深度向上のための新しい2段階フレームワークを提案する。
このフレームワークは拡散モデルの確率的性質を活用し、幾何学的手がかりを保持しながら、信頼できない深さ領域を自動的に検出する。
第1段階(確率的推定)では、トレーニング・推論領域ギャップを利用して、信頼できない測定値を特定し、幾何学的構造を推測する。
第2段階(決定論的洗練)では、第1段階から派生した不確実性マップを用いて、構造的一貫性と画素レベルの精度を強制する。
確率的不確実性モデリングと決定論的洗練とを組み合わせることで, 信頼性を向上した高密度でアーチファクトフリーな深度マップが得られる。
実験結果は、様々な現実世界のシナリオでその効果を実証している。
さらに、理論解析、様々な実験、質的な可視化により、その堅牢性とスケーラビリティが検証される。
我々のフレームワークは、センサー深度向上のための新しいベースラインを設定し、自動運転、ロボティクス、没入型技術に応用できる可能性がある。
関連論文リスト
- PhySense: Sensor Placement Optimization for Accurate Physics Sensing [71.02216400133858]
PhySenseは、物理的なフィールドを共同で再構築し、センサー配置を最適化するフレームワークである。
最先端の物理センサーの精度を達成し、以前は考えられていなかった情報的なセンサー配置を発見する。
論文 参考訳(メタデータ) (2025-05-19T14:59:11Z) - GUPNet++: Geometry Uncertainty Propagation Network for Monocular 3D Object Detection [92.41859045360532]
我々はGUPNet++(Geometry Uncertainty Propagation Network)を提案する。
トレーニング中の幾何射影の不確実性伝播関係をモデル化し、エンドツーエンドのモデル学習の安定性と効率を向上させる。
実験により,提案手法は画像ベースモノクロ3次元検出におけるSOTA性能を得るだけでなく,簡易なフレームワークで有効性を示す。
論文 参考訳(メタデータ) (2023-10-24T08:45:15Z) - Multi-Frame Self-Supervised Depth Estimation with Multi-Scale Feature
Fusion in Dynamic Scenes [25.712707161201802]
マルチフレーム手法は単一フレームアプローチによる単眼深度推定を改善する。
最近の手法では、特徴マッチングと動的シーンのための複雑なアーキテクチャを提案する傾向がある。
単純な学習フレームワークと設計された機能拡張が、優れたパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-26T05:26:30Z) - Self-Guided Instance-Aware Network for Depth Completion and Enhancement [6.319531161477912]
既存の手法では,画素ワイド画像の内容とそれに対応する近傍の深度値に基づいて,欠落した深度測定を直接補間する。
本稿では、自己誘導機構を利用して、深度復元に必要なインスタンスレベルの特徴を抽出する自己誘導型インスタンス認識ネットワーク(SG-IANet)を提案する。
論文 参考訳(メタデータ) (2021-05-25T19:41:38Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。