論文の概要: Depth Anything in $360^\circ$: Towards Scale Invariance in the Wild
- arxiv url: http://arxiv.org/abs/2512.22819v1
- Date: Sun, 28 Dec 2025 07:12:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.238869
- Title: Depth Anything in $360^\circ$: Towards Scale Invariance in the Wild
- Title(参考訳): 360^\circ$の深さ:野生におけるスケール不変性を目指して
- Authors: Hualie Jiang, Ziyang Song, Zhiqiang Lou, Rui Xu, Minglang Tan,
- Abstract要約: 私たちはDepth Anythingを、Depth Anything V2のパノラマ適応版である$360circ$(DA360)で紹介します。
我々の重要なイノベーションは、ViTバックボーンからシフトパラメータを学習し、モデルのスケール不変およびシフト不変の出力をスケール不変の見積に変換することです。
- 参考スコア(独自算出の注目度): 12.6239596554452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Panoramic depth estimation provides a comprehensive solution for capturing complete $360^\circ$ environmental structural information, offering significant benefits for robotics and AR/VR applications. However, while extensively studied in indoor settings, its zero-shot generalization to open-world domains lags far behind perspective images, which benefit from abundant training data. This disparity makes transferring capabilities from the perspective domain an attractive solution. To bridge this gap, we present Depth Anything in $360^\circ$ (DA360), a panoramic-adapted version of Depth Anything V2. Our key innovation involves learning a shift parameter from the ViT backbone, transforming the model's scale- and shift-invariant output into a scale-invariant estimate that directly yields well-formed 3D point clouds. This is complemented by integrating circular padding into the DPT decoder to eliminate seam artifacts, ensuring spatially coherent depth maps that respect spherical continuity. Evaluated on standard indoor benchmarks and our newly curated outdoor dataset, Metropolis, DA360 shows substantial gains over its base model, achieving over 50\% and 10\% relative depth error reduction on indoor and outdoor benchmarks, respectively. Furthermore, DA360 significantly outperforms robust panoramic depth estimation methods, achieving about 30\% relative error improvement compared to PanDA across all three test datasets and establishing new state-of-the-art performance for zero-shot panoramic depth estimation.
- Abstract(参考訳): パノラマ深度推定は、完全な360^\circ$環境構造情報をキャプチャするための包括的なソリューションを提供する。
しかし、屋内環境では広く研究されているが、オープンワールドドメインへのゼロショットの一般化は、豊富なトレーニングデータから恩恵を受ける視点画像よりもはるかに遅れている。
この格差は、パースペクティブドメインからの転送機能を魅力的なソリューションにする。
このギャップを埋めるために、Depth AnythingをDepth Anything V2のパノラマ適応版である$360^\circ$ (DA360)で提示する。
我々の重要な革新は、ViTのバックボーンからシフトパラメータを学習し、モデルのスケール不変およびシフト不変の出力をスケール不変の見積に変換し、良好な3Dポイントクラウドを直接生成することです。
これは、DPTデコーダに円形のパディングを統合してシームアーティファクトを除去し、球面連続性を尊重する空間的に整合した深度マップを確保することで補う。
標準屋内ベンチマークと新たにキュレートした屋外データセットであるMetropolis DA360で評価した結果,室内ベンチマークと屋外ベンチマークの相対深度誤差が50%以上,室内ベンチマークと屋外ベンチマークの相対深度誤差が10%以上減少した。
さらに、DA360はロバストなパノラマ深さ推定法を著しく上回り、3つのテストデータセットのPanDAと比較して約30%の誤差改善を実現し、ゼロショットパノラマ深度推定のための新しい最先端性能を確立した。
関連論文リスト
- RPG360: Robust 360 Depth Estimation with Perspective Foundation Models and Graph Optimization [48.99932182976206]
RPG360は、トレーニング不要のロバストな360度モノクル深度推定法である。
グラフに基づく最適化を用いた新しい深度スケールアライメント手法を提案する。
提案手法は,Matterport3D,Stanford2D3D,360Locなど,多様なデータセットにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2025-09-28T17:33:12Z) - IM360: Large-scale Indoor Mapping with 360 Cameras [48.99932182976206]
大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本稿では,球面カメラモデルとStructure-from-Motion(SfM)パイプラインを融合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
論文 参考訳(メタデータ) (2025-02-18T05:15:19Z) - Helvipad: A Real-World Dataset for Omnidirectional Stereo Depth Estimation [83.841877607646]
全方位ステレオ深度推定のための実世界のデータセットであるHelvipadを紹介する。
このデータセットは、3Dポイント雲を等方形画像に投影することで、正確な深度と不均質のラベルを含む。
標準画像と全方位画像のステレオ深度推定モデルをベンチマークする。
論文 参考訳(メタデータ) (2024-11-27T13:34:41Z) - Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation [6.832852988957967]
ラベルのない360度データを効果的に活用する新しい深度推定フレームワークを提案する。
提案手法では,教師モデルとして最先端の視点深度推定モデルを用いて擬似ラベルを生成する。
我々は、Matterport3DやStanford2D3Dといったベンチマークデータセットに対するアプローチを検証し、深さ推定精度を大幅に改善した。
論文 参考訳(メタデータ) (2024-06-18T17:59:31Z) - Pano3D: A Holistic Benchmark and a Solid Baseline for $360^o$ Depth
Estimation [21.84387932527696]
Pano3Dは球状パノラマから深度を推定するための新しいベンチマークである。
すべての深さ推定特性のパフォーマンスを評価することを目的としている。
パノ3Dはデータの一般化を異なるテスト分割に切り離すことで、360o$の深さ推定のための総合的なベンチマークを表現している。
論文 参考訳(メタデータ) (2021-09-06T21:30:03Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。