論文の概要: DNF-Intrinsic: Deterministic Noise-Free Diffusion for Indoor Inverse Rendering
- arxiv url: http://arxiv.org/abs/2507.03924v1
- Date: Sat, 05 Jul 2025 07:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.939268
- Title: DNF-Intrinsic: Deterministic Noise-Free Diffusion for Indoor Inverse Rendering
- Title(参考訳): DNF-intrinsic:室内逆レンダリングのための決定論的ノイズフリー拡散
- Authors: Rongjia Zheng, Qing Zhang, Chengjiang Long, Wei-Shi Zheng,
- Abstract要約: 本稿では,DNF-Intrinsicについて述べる。
提案手法は,既存の最先端レンダリング手法よりも明らかに優れていることを示す。
- 参考スコア(独自算出の注目度): 46.94209097951204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods have shown that pre-trained diffusion models can be fine-tuned to enable generative inverse rendering by learning image-conditioned noise-to-intrinsic mapping. Despite their remarkable progress, they struggle to robustly produce high-quality results as the noise-to-intrinsic paradigm essentially utilizes noisy images with deteriorated structure and appearance for intrinsic prediction, while it is common knowledge that structure and appearance information in an image are crucial for inverse rendering. To address this issue, we present DNF-Intrinsic, a robust yet efficient inverse rendering approach fine-tuned from a pre-trained diffusion model, where we propose to take the source image rather than Gaussian noise as input to directly predict deterministic intrinsic properties via flow matching. Moreover, we design a generative renderer to constrain that the predicted intrinsic properties are physically faithful to the source image. Experiments on both synthetic and real-world datasets show that our method clearly outperforms existing state-of-the-art methods.
- Abstract(参考訳): 近年,画像条件の雑音-内在性マッピングを学習することで,事前学習した拡散モデルを微調整し,生成的逆レンダリングを可能にする方法が提案されている。
その顕著な進歩にもかかわらず、ノイズから内在的なパラダイムは本質的に、劣化した構造と外観を持つノイズの多いイメージを本質的な予測に利用しており、画像の構造と外観情報は逆レンダリングに不可欠であるという知識は一般的である。
そこで我々は, ガウス雑音ではなく音源像を入力として, フローマッチングによる決定論的固有特性を直接予測する手法を提案する。
さらに、予測固有特性がソース画像に物理的に忠実であることを制約する生成型レンダラーを設計する。
合成と実世界の両方のデータセットの実験により、我々の手法は既存の最先端の手法よりも明らかに優れていることが示された。
関連論文リスト
- Edge-preserving noise for diffusion models [4.435514696080208]
既存の等方性モデルに対して一般化した新しいエッジ保存拡散モデルを提案する。
モデルの生成過程はより高速に収束し, 対象の分布とより密に一致していることを示す。
我々のエッジ保存拡散プロセスは、非条件画像生成における最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-10-02T13:29:52Z) - Diffusion Noise Feature: Accurate and Fast Generated Image Detection [28.262273539251172]
生成モデルは、驚くほどリアルなイメージを生成できる先進的な段階に達している。
生成された画像に対する既存の画像検出器は、低精度や限定的な一般化といった課題に直面している。
本稿では,生成画像の検出能力を高めるために,強力な一般化機能を備えた表現を求めることにより,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-05T10:01:11Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Representing Noisy Image Without Denoising [91.73819173191076]
ラドン空間におけるフラクショナルオーダーモーメント(FMR)は、ノイズの多い画像から直接ロバストな表現を引き出すように設計されている。
従来の整数順序法とは異なり、我々の研究は特別な場合のような古典的手法を取り入れたより汎用的な設計である。
論文 参考訳(メタデータ) (2023-01-18T10:13:29Z) - Image Embedding for Denoising Generative Models [0.0]
逆拡散過程の決定論的性質から拡散入射モデルに着目する。
本研究の副次として,拡散モデルの潜伏空間の構造についてより深い知見を得た。
論文 参考訳(メタデータ) (2022-12-30T17:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。