論文の概要: SteeredMarigold: Steering Diffusion Towards Depth Completion of Largely Incomplete Depth Maps
- arxiv url: http://arxiv.org/abs/2409.10202v1
- Date: Mon, 16 Sep 2024 11:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 15:40:35.108021
- Title: SteeredMarigold: Steering Diffusion Towards Depth Completion of Largely Incomplete Depth Maps
- Title(参考訳): SteeredMarigold: 大規模不完全深度マップの深さ完了に向けてのステアリング拡散
- Authors: Jakub Gregorek, Lazaros Nalpantidis,
- Abstract要約: SteeredMarigold は訓練なし、ゼロショット深度補完法である。
これは、大半不完全深度写像であっても、メートル法的な密度深度を生成する。
私たちのコードは公開されます。
- 参考スコア(独自算出の注目度): 3.399289369740637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even if the depth maps captured by RGB-D sensors deployed in real environments are often characterized by large areas missing valid depth measurements, the vast majority of depth completion methods still assumes depth values covering all areas of the scene. To address this limitation, we introduce SteeredMarigold, a training-free, zero-shot depth completion method capable of producing metric dense depth, even for largely incomplete depth maps. SteeredMarigold achieves this by using the available sparse depth points as conditions to steer a denoising diffusion probabilistic model. Our method outperforms relevant top-performing methods on the NYUv2 dataset, in tests where no depth was provided for a large area, achieving state-of-art performance and exhibiting remarkable robustness against depth map incompleteness. Our code will be publicly available.
- Abstract(参考訳): 実環境に展開されたRGB-Dセンサーが捉えた深度マップは、有効な深度測定をしていない大きな領域で特徴付けられることが多いが、ほとんどの深度補完法は、シーンのすべての領域をカバーする深さ値を想定している。
この制限に対処するために、大半不完全深度マップであっても、計量密度の深い深度を生成できる訓練不要ゼロショット深度補完法であるSteeredMarigoldを導入する。
SteeredMarigold氏は、利用可能なスパース深さ点を、微分確率モデル(英語版)(denoising diffusion probabilistic model)をステアリングする条件として利用することによって、これを達成している。
提案手法は,大面積の深度が得られないテストにおいて,NYUv2データセットの高精細度化手法よりも優れ,最先端性能を実現し,深度マップの不完全性に対する顕著な堅牢性を示す。
私たちのコードは公開されます。
関連論文リスト
- RDFC-GAN: RGB-Depth Fusion CycleGAN for Indoor Depth Completion [28.634851863097953]
本稿では,RDFC-GANという2分岐のエンドツーエンド核融合ネットワークを提案する。
RGBと不完全な深度画像のペアを入力として、密集した深度マップを予測する。
第1分枝は、マンハッタン世界の仮定に固執することにより、エンコーダ・デコーダ構造を用いる。
もう一方のブランチでは、RGBイメージを詳細なテクスチャ化された深度マップに変換するのに適したRGB深度融合CycleGANが適用されている。
論文 参考訳(メタデータ) (2023-06-06T11:03:05Z) - SparseNeRF: Distilling Depth Ranking for Few-shot Novel View Synthesis [93.46963803030935]
実世界の不正確な観測から奥行きの先行情報を利用する新しいスパースビューNeRF(Sparse-view NeRF)フレームワークを提案する。
局所パッチの粗い深度マップとNeRFの予測深度ランキングが一致するように, 局所深度ランキング法である簡易で効果的な制約を提案する。
また、Azure Kinect、ZED 2、iPhone 13 Proの実際の深度マップを含む新しいデータセットNVS-RGBDも収集しています。
論文 参考訳(メタデータ) (2023-03-28T17:58:05Z) - DesNet: Decomposed Scale-Consistent Network for Unsupervised Depth
Completion [28.91716162403531]
教師なし深度補完は、接地トラスアノテーションを使わずにスパースから密集した深度を回復することを目的としている。
本研究では,絶対深度を相対深度予測とグローバルスケール推定に分解するDSCL戦略を提案する。
提案手法は,室内のNYUv2データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T14:56:18Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - FCFR-Net: Feature Fusion based Coarse-to-Fine Residual Learning for
Monocular Depth Completion [15.01291779855834]
最近のアプローチは、主に1段階のエンドツーエンドの学習タスクとして深さの完成を定式化します。
深度完了を2段階学習タスクとして定式化する,新しいエンドツーエンドの残留学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T13:09:56Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。