論文の概要: StarryGazer: Leveraging Monocular Depth Estimation Models for Domain-Agnostic Single Depth Image Completion
- arxiv url: http://arxiv.org/abs/2512.13147v1
- Date: Mon, 15 Dec 2025 09:56:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.614667
- Title: StarryGazer: Leveraging Monocular Depth Estimation Models for Domain-Agnostic Single Depth Image Completion
- Title(参考訳): StarryGazer:ドメインに依存しない単一深度画像補完のための単眼深度推定モデル
- Authors: Sangmin Hong, Suyoung Lee, Kyoung Mu Lee,
- Abstract要約: StarryGazerは、単一のスパース深度画像とRGB画像から高密度深度画像を予測するフレームワークである。
我々は、相対深度画像を生成するために、事前訓練されたMDEモデルを用いる。
モデルの精度とロバスト性を改善するために、相対深度マップとRGBイメージを組み込んだ合成ペアを用いて改良ネットワークを訓練する。
- 参考スコア(独自算出の注目度): 56.28564075246147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of depth completion involves predicting a dense depth image from a single sparse depth map and an RGB image. Unsupervised depth completion methods have been proposed for various datasets where ground truth depth data is unavailable and supervised methods cannot be applied. However, these models require auxiliary data to estimate depth values, which is far from real scenarios. Monocular depth estimation (MDE) models can produce a plausible relative depth map from a single image, but there is no work to properly combine the sparse depth map with MDE for depth completion; a simple affine transformation to the depth map will yield a high error since MDE are inaccurate at estimating depth difference between objects. We introduce StarryGazer, a domain-agnostic framework that predicts dense depth images from a single sparse depth image and an RGB image without relying on ground-truth depth by leveraging the power of large MDE models. First, we employ a pre-trained MDE model to produce relative depth images. These images are segmented and randomly rescaled to form synthetic pairs for dense pseudo-ground truth and corresponding sparse depths. A refinement network is trained with the synthetic pairs, incorporating the relative depth maps and RGB images to improve the model's accuracy and robustness. StarryGazer shows superior results over existing unsupervised methods and transformed MDE results on various datasets, demonstrating that our framework exploits the power of MDE models while appropriately fixing errors using sparse depth information.
- Abstract(参考訳): 深度補完の問題は、単一のスパース深度マップとRGB画像から密度の深い深度画像を予測することである。
基底真相深度データが利用できなくなり,教師ありの手法が適用できない様々なデータセットに対して,教師なし深度補完法が提案されている。
しかし、これらのモデルは実際のシナリオとはかけ離れた深度値を推定するために補助的なデータを必要とする。
単眼深度推定(MDE)モデルでは、単一の画像から可塑性相対深度マップを生成することができるが、スパース深度マップとMDEを適切に組み合わせて深度を推定する作業は行われず、深度マップへの単純なアフィン変換は、MDEが物体間の深度差を推定する不正確なため、高い誤差をもたらす。
本稿では,大容量MDEモデルのパワーを活用して,地中深度に依存することなく,単一のスパース深度画像とRGB画像から高密度深度画像を予測する,ドメインに依存しないフレームワークであるStarryGazerを紹介する。
まず、トレーニング済みのMDEモデルを用いて、相対的な深度画像を生成する。
これらの画像はセグメント化され、ランダムに再スケールされ、密度の高い擬似地上真実と対応するスパース深度のための合成ペアを形成する。
モデルの精度とロバスト性を改善するために、相対深度マップとRGBイメージを組み込んだ合成ペアを用いて改良ネットワークを訓練する。
StarryGazerは、既存の教師なし手法よりも優れた結果を示し、様々なデータセット上でMDEを変換し、我々のフレームワークは、スパース深度情報を用いてエラーを適切に修正しながら、MDEモデルのパワーを利用することを示した。
関連論文リスト
- Propagating Sparse Depth via Depth Foundation Model for Out-of-Distribution Depth Completion [33.854696587141355]
本研究では,大規模トレーニングを伴わずに,深度基礎モデルを利用して顕著な堅牢性を実現する新しい深度補修フレームワークを提案する。
具体的には、深度基盤モデルを用いて、RGB画像から構造的・意味的文脈を含む環境条件を抽出し、疎度情報の欠落領域への伝播を誘導する。
我々のフレームワークはOODシナリオにおいて非常によく機能し、既存の最先端の深度補完手法よりも優れています。
論文 参考訳(メタデータ) (2025-08-07T02:38:24Z) - DenseFormer: Learning Dense Depth Map from Sparse Depth and Image via Conditional Diffusion Model [18.694510415777632]
本稿では,拡散モデルを深度完了タスクに統合する新しい手法であるDenseFormerを提案する。
DenseFormerは、複数の反復を通して初期ランダムな深さ分布を漸進的に精製することで、密度の深い深さマップを生成する。
本稿では,拡散過程によって生じる深部深部処理に多段階反復改良を適用した深部改良モジュールを提案する。
論文 参考訳(メタデータ) (2025-03-31T12:11:01Z) - High-Precision Dichotomous Image Segmentation via Depth Integrity-Prior and Fine-Grained Patch Strategy [23.431898388115044]
高精細度画像から細粒度オブジェクトを抽出する作業として,DIS(High-precision Dichotomous Image segmentation)がある。
既存の方法はジレンマに直面し、非拡散法は効率的に機能するが、弱い意味論による誤検出や誤検出に悩まされる。
単眼深度推定モデルから擬似深度情報を得ると,本質的な意味理解が得られる。
論文 参考訳(メタデータ) (2025-03-08T07:02:28Z) - Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。