論文の概要: Depth Anything with Any Prior
- arxiv url: http://arxiv.org/abs/2505.10565v1
- Date: Thu, 15 May 2025 17:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.463173
- Title: Depth Anything with Any Prior
- Title(参考訳): 最優先事項の深さ
- Authors: Zehan Wang, Siyu Chen, Lihe Yang, Jialei Wang, Ziang Zhang, Hengshuang Zhao, Zhou Zhao,
- Abstract要約: Prior Depth Anythingは、深さ測定における不完全だが正確な計量情報と深さ予測における相対的だが完全な幾何学的構造を組み合わせたフレームワークである。
本研究では, 単眼深度推定(MDE)モデルを構築し, 深度推定の固有ノイズを改良する。
われわれのモデルは、7つの現実世界のデータセットにまたがる深度補完、超高解像度、インパインティングという、印象的なゼロショットの一般化を見せている。
- 参考スコア(独自算出の注目度): 64.39991799606146
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work presents Prior Depth Anything, a framework that combines incomplete but precise metric information in depth measurement with relative but complete geometric structures in depth prediction, generating accurate, dense, and detailed metric depth maps for any scene. To this end, we design a coarse-to-fine pipeline to progressively integrate the two complementary depth sources. First, we introduce pixel-level metric alignment and distance-aware weighting to pre-fill diverse metric priors by explicitly using depth prediction. It effectively narrows the domain gap between prior patterns, enhancing generalization across varying scenarios. Second, we develop a conditioned monocular depth estimation (MDE) model to refine the inherent noise of depth priors. By conditioning on the normalized pre-filled prior and prediction, the model further implicitly merges the two complementary depth sources. Our model showcases impressive zero-shot generalization across depth completion, super-resolution, and inpainting over 7 real-world datasets, matching or even surpassing previous task-specific methods. More importantly, it performs well on challenging, unseen mixed priors and enables test-time improvements by switching prediction models, providing a flexible accuracy-efficiency trade-off while evolving with advancements in MDE models.
- Abstract(参考訳): この研究は、深度測定における不完全だが正確な計量情報と、深度予測における相対的だが完全な幾何学的構造を組み合わせたフレームワークであるPresided Depth Anythingを提示し、任意のシーンに対して正確で密度が高く詳細な計量深度マップを生成する。
この目的のために、我々は2つの相補的な深度源を段階的に統合する粗大なパイプラインを設計する。
まず,画素レベルの距離アライメントと距離認識重み付けを導入する。
それまでのパターン間のドメインギャップを効果的に制限し、さまざまなシナリオにおける一般化を強化します。
第2に,単眼深度推定(MDE)モデルを構築し,深度推定の固有ノイズを改良する。
正規化前処理と予測を条件付けすることで、モデルはさらに2つの相補的な深度源を暗黙的にマージする。
我々のモデルは、深度補完、超高解像度、そして7つの実世界のデータセット、マッチング、あるいは以前のタスク固有のメソッドを超越した、印象的なゼロショットの一般化を示します。
さらに重要なことは、挑戦的で目に見えない混合の事前でうまく機能し、予測モデルを切り替えることによるテスト時間の改善を可能にし、MDEモデルの進歩とともに進化しながら、柔軟な精度と効率のトレードオフを提供する。
関連論文リスト
- Zero-shot Depth Completion via Test-time Alignment with Affine-invariant Depth Prior [15.802986215292309]
本研究では,アフィン不変深度拡散モデルとテスト時間アライメントからなるゼロショット深度補完法を提案する。
提案手法では,アフィン不変深度を計量スケールのスパース測定と整合させ,テスト時に最適化ループを通した厳密な制約として適用する。
論文 参考訳(メタデータ) (2025-02-10T10:38:33Z) - Relative Pose Estimation through Affine Corrections of Monocular Depth Priors [69.59216331861437]
本研究では,独立なアフィン(スケールとシフト)のあいまいさを明示的に考慮した相対ポーズ推定のための3つの解法を開発した。
提案する解法と古典的点ベース解法とエピポーラ制約を組み合わせたハイブリッド推定パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:58:30Z) - Amodal Depth Anything: Amodal Depth Estimation in the Wild [39.27552294431748]
アモーダル深度推定は、シーン内の物体の閉塞された(見えない)部分の深さを予測することを目的としている。
本研究では,様々な自然画像におけるモデル一般化を改善するために,相対的深度予測に焦点をあてて,野生におけるアモーダル深度推定の新しい定式化を提案する。
本稿では,Depth Anything V2に基づく決定論的モデルであるAmodal-DAV2と,条件付きフローマッチングの原理を統合する生成モデルであるAmodal-DepthFMの2つの補完的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T09:56:38Z) - Exploiting Correspondences with All-pairs Correlations for Multi-view
Depth Estimation [19.647670347925754]
多視点深度推定は,3次元世界を再構築し,理解する上で重要な役割を担っている。
最適化過程を模倣した新しい反復的多視点深度推定フレームワークを設計する。
ScanNet,DeMoN,ETH3D,および7Scenesについて十分な実験を行い,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-05-05T07:38:31Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - DiverseDepth: Affine-invariant Depth Prediction Using Diverse Data [110.29043712400912]
本稿では,アフィン変換に至るまでの多様なシーンにおける高品質な深度を予測できるモノクロ画像を用いた深度推定手法を提案する。
実験の結果,提案手法は,ゼロショットテスト設定と大差で8つのデータセットの先行手法より優れていた。
論文 参考訳(メタデータ) (2020-02-03T05:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。