論文の概要: RPG360: Robust 360 Depth Estimation with Perspective Foundation Models and Graph Optimization
- arxiv url: http://arxiv.org/abs/2509.23991v1
- Date: Sun, 28 Sep 2025 17:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.575132
- Title: RPG360: Robust 360 Depth Estimation with Perspective Foundation Models and Graph Optimization
- Title(参考訳): RPG360: パースペクティブファンデーションモデルとグラフ最適化によるロバスト360深さ推定
- Authors: Dongki Jung, Jaehoon Choi, Yonghan Lee, Dinesh Manocha,
- Abstract要約: RPG360は、トレーニング不要のロバストな360度モノクル深度推定法である。
グラフに基づく最適化を用いた新しい深度スケールアライメント手法を提案する。
提案手法は,Matterport3D,Stanford2D3D,360Locなど,多様なデータセットにまたがる優れた性能を実現する。
- 参考スコア(独自算出の注目度): 48.99932182976206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing use of 360 images across various domains has emphasized the need for robust depth estimation techniques tailored for omnidirectional images. However, obtaining large-scale labeled datasets for 360 depth estimation remains a significant challenge. In this paper, we propose RPG360, a training-free robust 360 monocular depth estimation method that leverages perspective foundation models and graph optimization. Our approach converts 360 images into six-face cubemap representations, where a perspective foundation model is employed to estimate depth and surface normals. To address depth scale inconsistencies across different faces of the cubemap, we introduce a novel depth scale alignment technique using graph-based optimization, which parameterizes the predicted depth and normal maps while incorporating an additional per-face scale parameter. This optimization ensures depth scale consistency across the six-face cubemap while preserving 3D structural integrity. Furthermore, as foundation models exhibit inherent robustness in zero-shot settings, our method achieves superior performance across diverse datasets, including Matterport3D, Stanford2D3D, and 360Loc. We also demonstrate the versatility of our depth estimation approach by validating its benefits in downstream tasks such as feature matching 3.2 ~ 5.4% and Structure from Motion 0.2 ~ 9.7% in AUC@5.
- Abstract(参考訳): 様々な領域にまたがる360度画像の利用の増加は、全方位画像に適した頑健な深度推定技術の必要性を強調している。
しかし、360度深度推定のための大規模ラベル付きデータセットを取得することは大きな課題である。
本稿では,視点基礎モデルとグラフ最適化を利用したトレーニング不要なロバストな360度モノクロ深度推定法であるRPG360を提案する。
提案手法では,360度画像を6面の立方体図表現に変換する。
立方体マップの異なる面にまたがる深度スケールの不整合に対処するために,グラフベース最適化を用いた新しい深度スケールアライメント手法を導入する。
この最適化により、6面の立方体マップの奥行きスケールの整合性が確保され、3次元構造的整合性が維持される。
さらに,ファウンデーションモデルはゼロショット設定に固有のロバスト性を示すため,Matterport3D,Stanford2D3D,360Locなど,さまざまなデータセットで優れたパフォーマンスを実現する。
また,特徴マッチング3.2~5.4%,動作構造0.2~9.7%のAUC@5.7%といった下流タスクにおいて,その利点を検証することで,深度推定手法の汎用性を実証した。
関連論文リスト
- Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation [6.832852988957967]
ラベルのない360度データを効果的に活用する新しい深度推定フレームワークを提案する。
提案手法では,教師モデルとして最先端の視点深度推定モデルを用いて擬似ラベルを生成する。
我々は、Matterport3DやStanford2D3Dといったベンチマークデータセットに対するアプローチを検証し、深さ推定精度を大幅に改善した。
論文 参考訳(メタデータ) (2024-06-18T17:59:31Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Dense Depth Estimation from Multiple 360-degree Images Using Virtual
Depth [4.984601297028257]
提案したパイプラインは、360度画像の半径歪みを補償する球面カメラモデルを活用する。
仮想深度の設定とフォトニック再射誤差の最小化による効果的な深度推定法を提案する。
実験により,提案したパイプラインは,現在最先端の深度推定法と比較して推定精度が向上することを確認した。
論文 参考訳(メタデータ) (2021-12-30T05:27:28Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。