論文の概要: DepR: Depth Guided Single-view Scene Reconstruction with Instance-level Diffusion
- arxiv url: http://arxiv.org/abs/2507.22825v1
- Date: Wed, 30 Jul 2025 16:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.339038
- Title: DepR: Depth Guided Single-view Scene Reconstruction with Instance-level Diffusion
- Title(参考訳): DepR: インスタンスレベルの拡散を用いた深度ガイド付きシングルビューシーン再構成
- Authors: Qingcheng Zhao, Xiang Zhang, Haiyang Xu, Zeyuan Chen, Jianwen Xie, Yuan Gao, Zhuowen Tu,
- Abstract要約: DepRは深度誘導のシングルビューシーン再構築フレームワークである。
個々のオブジェクトを生成し、それらをコヒーレントな3Dレイアウトに構成する。
限られた合成データで訓練されているにもかかわらず、最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 59.25479674775212
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose DepR, a depth-guided single-view scene reconstruction framework that integrates instance-level diffusion within a compositional paradigm. Instead of reconstructing the entire scene holistically, DepR generates individual objects and subsequently composes them into a coherent 3D layout. Unlike previous methods that use depth solely for object layout estimation during inference and therefore fail to fully exploit its rich geometric information, DepR leverages depth throughout both training and inference. Specifically, we introduce depth-guided conditioning to effectively encode shape priors into diffusion models. During inference, depth further guides DDIM sampling and layout optimization, enhancing alignment between the reconstruction and the input image. Despite being trained on limited synthetic data, DepR achieves state-of-the-art performance and demonstrates strong generalization in single-view scene reconstruction, as shown through evaluations on both synthetic and real-world datasets.
- Abstract(参考訳): コンポジションパラダイム内にインスタンスレベルの拡散を統合する,奥行き誘導型単一視点シーン再構築フレームワークDepRを提案する。
シーン全体を一様に再構築する代わりに、DepRは個々のオブジェクトを生成し、それらをコヒーレントな3Dレイアウトに構成する。
推論中にオブジェクトレイアウト推定にのみDeepを使用する従来の手法とは異なり、DepRはトレーニングと推論の両方を通してdeepを利用する。
具体的には,形状先行を拡散モデルに効果的にエンコードするための奥行き誘導条件を導入する。
推論中、ディープはさらにDDIMサンプリングとレイアウト最適化をガイドし、再構成と入力画像のアライメントを強化する。
限られた合成データでトレーニングされているにもかかわらず、DepRは最先端のパフォーマンスを達成し、合成データと実世界の両方のデータセットの評価を通して示されるように、シングルビューのシーン再構成において強力な一般化を示す。
関連論文リスト
- Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - Multi-view Reconstruction via SfM-guided Monocular Depth Estimation [92.89227629434316]
マルチビュー幾何再構成のための新しい手法を提案する。
深度推定プロセスに、より強力なマルチビューであるSfM情報を組み込む。
本手法は, 従来の単分子深度推定法と比較して, 深度推定の精度を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-18T17:54:06Z) - Gen3DSR: Generalizable 3D Scene Reconstruction via Divide and Conquer from a Single View [5.222115919729418]
シングルビュー3D再構成は現在、2つの主要な視点からアプローチされている。
分割・分散戦略に従うハイブリッド手法を提案する。
我々は,合成シーンと実世界のシーンの両方において,我々のアプローチの再構築性能を実証する。
論文 参考訳(メタデータ) (2024-04-04T12:58:46Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Unsupervised Single-shot Depth Estimation using Perceptual
Reconstruction [0.0]
この研究は、生成ニューラルネットワークの分野における最新の進歩を示し、それらを活用して完全に教師なしの単発深度合成を行う。
RGB-to-deepthとdeep-to-RGB転送用の2つのジェネレータを実装し,Wasserstein-1距離と新しい知覚再構成項を用いて同時に最適化した。
本研究で得られた成果は、実世界のアプリケーションにおいて、教師なし単発深度推定の大きな可能性を示している。
論文 参考訳(メタデータ) (2022-01-28T15:11:34Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。