論文の概要: Real-World Depth Recovery via Structure Uncertainty Modeling and Inaccurate GT Depth Fitting
- arxiv url: http://arxiv.org/abs/2504.11820v1
- Date: Wed, 16 Apr 2025 07:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:37:10.115290
- Title: Real-World Depth Recovery via Structure Uncertainty Modeling and Inaccurate GT Depth Fitting
- Title(参考訳): 構造不確かさモデリングと不正確なGT深度フィッティングによる実世界の深度回復
- Authors: Delong Suzhang, Meng Yang,
- Abstract要約: 実世界における生地真理(raw-GT)データのペアの欠如は、一般化された深度回復の課題を提起する。
既存の手法では、生深度マップにおける構造ミスアライメントの多様性を十分に考慮していない。
提案手法では,入力と出力の両方の観点から一般化問題に取り組む。
- 参考スコア(独自算出の注目度): 3.5150471760755653
- License:
- Abstract: The low-quality structure in raw depth maps is prevalent in real-world RGB-D datasets, which makes real-world depth recovery a critical task in recent years. However, the lack of paired raw-ground truth (raw-GT) data in the real world poses challenges for generalized depth recovery. Existing methods insufficiently consider the diversity of structure misalignment in raw depth maps, which leads to poor generalization in real-world depth recovery. Notably, random structure misalignments are not limited to raw depth data but also affect GT depth in real-world datasets. In the proposed method, we tackle the generalization problem from both input and output perspectives. For input, we enrich the diversity of structure misalignment in raw depth maps by designing a new raw depth generation pipeline, which helps the network avoid overfitting to a specific condition. Furthermore, a structure uncertainty module is designed to explicitly identify the misaligned structure for input raw depth maps to better generalize in unseen scenarios. Notably the well-trained depth foundation model (DFM) can help the structure uncertainty module estimate the structure uncertainty better. For output, a robust feature alignment module is designed to precisely align with the accurate structure of RGB images avoiding the interference of inaccurate GT depth. Extensive experiments on multiple datasets demonstrate the proposed method achieves competitive accuracy and generalization capabilities across various challenging raw depth maps.
- Abstract(参考訳): 生深度マップの低品質構造は、実世界のRGB-Dデータセットで一般的であり、近年では現実世界の深度復元が重要な課題となっている。
しかし、実世界における生地真理(raw-GT)データのペアの欠如は、一般化された深度回復の課題を提起する。
既存の手法では、生深度マップにおける構造ミスアライメントの多様性を十分に考慮しておらず、現実の深度回復における一般化の欠如につながっている。
特に、ランダムな構造ミスアライメントは生の深度データに限らず、実世界のデータセットのGT深度にも影響を及ぼす。
提案手法では,入力と出力の両方の観点から一般化問題に取り組む。
入力に対して,ネットワークが特定の条件に過度に適合することを避けるために,新たな生深度生成パイプラインを設計することにより,生深度マップにおける構造ミスアライメントの多様性を向上する。
さらに、構造不確実性モジュールは、入力された生深度マップのミスアライメント構造を明示的に識別し、目に見えないシナリオでより良く一般化するように設計されている。
特に、よく訓練された深度基礎モデル(DFM)は、構造不確かさモジュールが構造不確かさをよりよく見積もるのに役立つ。
出力には、不正確なGT深さの干渉を避けるために、RGB画像の正確な構造と正確に整合するように、ロバストな特徴アライメントモジュールが設計されている。
複数のデータセットに対する大規模な実験により,提案手法は様々な難解な生深度マップにまたがる競合精度と一般化能力を実現する。
関連論文リスト
- Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
グローバルおよび詳細な幾何学的特徴を別々に扱うことにより、高品質な深度マップ再構築プロセスを分離する。
我々の解は、幾何的整合性と詳細回復の観点から、現在の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - RDFC-GAN: RGB-Depth Fusion CycleGAN for Indoor Depth Completion [28.634851863097953]
本稿では,RDFC-GANという2分岐のエンドツーエンド核融合ネットワークを提案する。
RGBと不完全な深度画像のペアを入力として、密集した深度マップを予測する。
第1分枝は、マンハッタン世界の仮定に固執することにより、エンコーダ・デコーダ構造を用いる。
もう一方のブランチでは、RGBイメージを詳細なテクスチャ化された深度マップに変換するのに適したRGB深度融合CycleGANが適用されている。
論文 参考訳(メタデータ) (2023-06-06T11:03:05Z) - High-Resolution Synthetic RGB-D Datasets for Monocular Depth Estimation [3.349875948009985]
我々は、GTA-V(Grand Theft Auto)から1920×1080の高解像度合成深度データセット(HRSD)を生成する。
実験と解析のために,提案した合成データセットに基づいて,最先端の変換器に基づくMDEアルゴリズムであるDPTアルゴリズムを訓練し,異なるシーンにおける深度マップの精度を9%向上させる。
論文 参考訳(メタデータ) (2023-05-02T19:03:08Z) - Structure Flow-Guided Network for Real Depth Super-Resolution [28.63334760296165]
本稿では,新しい構造フロー誘導深度超解像(DSR)フレームワークを提案する。
クロスモダリティフローマップを学習し、RGB構造情報転送を正確に深度アップサンプリングするためのガイドする。
我々のフレームワークは最先端の手法と比較して優れた性能を実現している。
論文 参考訳(メタデータ) (2023-01-31T05:13:55Z) - Struct-MDC: Mesh-Refined Unsupervised Depth Completion Leveraging
Structural Regularities from Visual SLAM [1.8899300124593648]
特徴量に基づく視覚的同時位置決めとマッピング法(SLAM)は,抽出した特徴量の深さのみを推定する。
スパース深度から密集深度を推定する深度完了タスクは、探索のようなロボット応用において重要な役割を担っている。
この問題に対処するためのメッシュ深度改善(MDR)モジュールを提案する。
Struct-MDCは、公開およびカスタムデータセット上で、他の最先端アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-04-29T04:29:17Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。