論文の概要: Zero-shot Depth Completion via Test-time Alignment with Affine-invariant Depth Prior
- arxiv url: http://arxiv.org/abs/2502.06338v1
- Date: Mon, 10 Feb 2025 10:38:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:31:43.599258
- Title: Zero-shot Depth Completion via Test-time Alignment with Affine-invariant Depth Prior
- Title(参考訳): Affine-invariant Depth Priorによるテスト時間アライメントによるゼロショット深さ補完
- Authors: Lee Hyoseok, Kyeong Seon Kim, Kwon Byung-Ki, Tae-Hyun Oh,
- Abstract要約: 本研究では,アフィン不変深度拡散モデルとテスト時間アライメントからなるゼロショット深度補完法を提案する。
提案手法では,アフィン不変深度を計量スケールのスパース測定と整合させ,テスト時に最適化ループを通した厳密な制約として適用する。
- 参考スコア(独自算出の注目度): 15.802986215292309
- License:
- Abstract: Depth completion, predicting dense depth maps from sparse depth measurements, is an ill-posed problem requiring prior knowledge. Recent methods adopt learning-based approaches to implicitly capture priors, but the priors primarily fit in-domain data and do not generalize well to out-of-domain scenarios. To address this, we propose a zero-shot depth completion method composed of an affine-invariant depth diffusion model and test-time alignment. We use pre-trained depth diffusion models as depth prior knowledge, which implicitly understand how to fill in depth for scenes. Our approach aligns the affine-invariant depth prior with metric-scale sparse measurements, enforcing them as hard constraints via an optimization loop at test-time. Our zero-shot depth completion method demonstrates generalization across various domain datasets, achieving up to a 21\% average performance improvement over the previous state-of-the-art methods while enhancing spatial understanding by sharpening scene details. We demonstrate that aligning a monocular affine-invariant depth prior with sparse metric measurements is a proven strategy to achieve domain-generalizable depth completion without relying on extensive training data. Project page: https://hyoseok1223.github.io/zero-shot-depth-completion/.
- Abstract(参考訳): スパース深度測定から深度マップを推定する深度完備化は、事前知識を必要とする不適切な問題である。
近年の手法では,事前情報を暗黙的にキャプチャするために学習に基づくアプローチが採用されているが,先行手法は主にドメイン内データに適合し,ドメイン外のシナリオにうまく適応しない。
そこで本研究では,アフィン不変深度拡散モデルとテスト時間アライメントからなるゼロショット深度補完法を提案する。
事前学習した深度拡散モデルを深度事前知識として使用し、暗黙的にシーンの深度を埋める方法について理解する。
提案手法では,アフィン不変深度を計量スケールのスパース測定と整合させ,テスト時に最適化ループを通した厳密な制約として適用する。
我々のゼロショット深度補完法は,様々な領域データセットをまたいだ一般化を実証し,従来の最先端手法よりも平均21倍の性能向上を実現し,シーンの細部を鋭くすることで空間的理解を高めた。
単分子アフィン不変深度をスパース測定に合わせることは、広範囲なトレーニングデータに頼らずに、ドメイン一般化可能な深度完了を実現するための実証的な戦略であることを示す。
プロジェクトページ: https://hyoseok1223.github.io/zero-shot-deepth-completion/
関連論文リスト
- Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [51.69876947593144]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - Depth Prompting for Sensor-Agnostic Depth Estimation [19.280536006736575]
我々は,新しい深度分布に応じて望ましい特徴表現を可能にするために,新しい深度プロンプトモジュールを設計する。
提案手法は,事前学習したモデルに対して,深度スキャン範囲の制限を不要とし,絶対スケールの深度マップを提供する。
論文 参考訳(メタデータ) (2024-05-20T08:19:08Z) - Towards Domain-agnostic Depth Completion [28.25756709062647]
既存の深度補完法は、しばしば特定のスパース深度型を目標とし、タスク領域をまたいだ一般化が不十分である。
各種センサで得られたスパース/セミデンス,ノイズ,および低分解能深度マップを完備する手法を提案する。
本手法は,最先端の深度補完法に対して優れたクロスドメイン一般化能力を示す。
論文 参考訳(メタデータ) (2022-07-29T04:10:22Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - DiverseDepth: Affine-invariant Depth Prediction Using Diverse Data [110.29043712400912]
本稿では,アフィン変換に至るまでの多様なシーンにおける高品質な深度を予測できるモノクロ画像を用いた深度推定手法を提案する。
実験の結果,提案手法は,ゼロショットテスト設定と大差で8つのデータセットの先行手法より優れていた。
論文 参考訳(メタデータ) (2020-02-03T05:38:33Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。