論文の概要: Learning High-Quality Initial Noise for Single-View Synthesis with Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.16219v1
- Date: Thu, 18 Dec 2025 06:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.938184
- Title: Learning High-Quality Initial Noise for Single-View Synthesis with Diffusion Models
- Title(参考訳): 拡散モデルを用いた単一視点合成のための高品質初期雑音の学習
- Authors: Zhihao Zhang, Xuejun Yang, Weihua Liu, Mouquan Shen,
- Abstract要約: 拡散モデルでは、ある種の高品質な初期ノイズパターンは、他のものよりも優れた生成結果をもたらす。
本稿では,ランダムノイズを直接高品質な雑音に変換するエンコーダ・デコーダネットワーク(EDN)に基づく学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.275373477634217
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Single-view novel view synthesis (NVS) models based on diffusion models have recently attracted increasing attention, as they can generate a series of novel view images from a single image prompt and camera pose information as conditions. It has been observed that in diffusion models, certain high-quality initial noise patterns lead to better generation results than others. However, there remains a lack of dedicated learning frameworks that enable NVS models to learn such high-quality noise. To obtain high-quality initial noise from random Gaussian noise, we make the following contributions. First, we design a discretized Euler inversion method to inject image semantic information into random noise, thereby constructing paired datasets of random and high-quality noise. Second, we propose a learning framework based on an encoder-decoder network (EDN) that directly transforms random noise into high-quality noise. Experiments demonstrate that the proposed EDN can be seamlessly plugged into various NVS models, such as SV3D and MV-Adapter, achieving significant performance improvements across multiple datasets. Code is available at: https://github.com/zhihao0512/EDN.
- Abstract(参考訳): 拡散モデルに基づくシングルビュー新規ビュー合成(NVS)モデルが近年注目を集めており、単一の画像プロンプトから一連の新しいビュー画像を生成し、条件としてカメラのポーズ情報を生成することができる。
拡散モデルでは、ある種の高品質な初期ノイズパターンが、他のものよりも優れた生成結果をもたらすことが示されている。
しかし、NVSモデルでこのような高品質なノイズを学習できる専用の学習フレームワークがまだ存在しない。
ランダムなガウス雑音から高品質な初期雑音を得るため、以下の寄与を行う。
まず、画像意味情報をランダムノイズに注入する離散化オイラー逆変換法を設計し、ランダムノイズと高品質ノイズのペアデータセットを構築する。
第二に、ランダムノイズを直接高品質な雑音に変換するエンコーダデコーダネットワーク(EDN)に基づく学習フレームワークを提案する。
実験によると、提案されたEDNはSV3DやMV-Adapterなど、さまざまなNVSモデルにシームレスにプラグインでき、複数のデータセット間で大幅なパフォーマンス改善が達成されている。
コードは、https://github.com/zhihao0512/EDN.comで入手できる。
関連論文リスト
- GuidNoise: Single-Pair Guided Diffusion for Generalized Noise Synthesis [9.253859022117306]
一般化雑音合成のための単対誘導拡散
GuidNoiseは単一のノイズ/クリーンペアをガイダンスとして使用しており、トレーニングセット内で簡単に手に入ることが多い。
誘導型アフィン特徴量修正(GAFM)とノイズ対応精細損失を用いて拡散モデルの本質的なポテンシャルを利用する。
論文 参考訳(メタデータ) (2025-12-04T05:00:00Z) - Revealing the Implicit Noise-based Imprint of Generative Models [71.94916898756684]
本稿では,検出タスクにノイズに基づくモデル固有インプリントを利用する新しいフレームワークを提案する。
様々な生成モデルからのインプリントを集約することにより、将来のモデルのインプリントを外挿してトレーニングデータを拡張することができる。
提案手法は,GenImage,Synthbuster,Chameleonの3つの公開ベンチマークにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-12T12:04:53Z) - One Noise to Rule Them All: Learning a Unified Model of Spatially-Varying Noise Patterns [33.293193191683145]
本稿では,複数種類のノイズを生成できる単一生成モデルを提案する。
また, 逆手続き材料設計の改善に本モデルを適用した。
論文 参考訳(メタデータ) (2024-04-25T02:23:11Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - DiffiT: Diffusion Vision Transformers for Image Generation [88.08529836125399]
ViT(Vision Transformer)は、特に認識タスクにおいて、強力なモデリング機能とスケーラビリティを実証している。
拡散型生成学習におけるViTの有効性について検討し、拡散ビジョン変換器(DiffiT)と呼ばれる新しいモデルを提案する。
DiffiTはパラメータ効率が大幅に向上した高忠実度画像を生成するのに驚くほど効果的である。
論文 参考訳(メタデータ) (2023-12-04T18:57:01Z) - Towards General Low-Light Raw Noise Synthesis and Modeling [37.87312467017369]
生成モデルにより信号非依存ノイズを合成する新しい視点を導入する。
具体的には、信号に依存しないノイズと信号に依存しないノイズを物理と学習に基づく方法で合成する。
このようにして、本手法は一般的なモデルとみなすことができ、つまり、異なるISOレベルの異なるノイズ特性を同時に学習することができる。
論文 参考訳(メタデータ) (2023-07-31T09:10:10Z) - Noise2NoiseFlow: Realistic Camera Noise Modeling without Clean Images [35.29066692454865]
本稿では,ノイズモデルとデノイザを同時にトレーニングするためのフレームワークを提案する。
ノイズ/クリーンなペア画像データではなく、ノイズの多いイメージのペアに依存します。
トレーニングされたデノイザーは、教師付きおよび弱教師付きベースラインデノイジングアプローチの両方において、大幅に改善される。
論文 参考訳(メタデータ) (2022-06-02T15:31:40Z) - Unsupervised Single Image Super-resolution Under Complex Noise [60.566471567837574]
本稿では,一般のSISRタスクを未知の劣化で扱うためのモデルベースunsupervised SISR法を提案する。
提案手法は, より小さなモデル (0.34M vs. 2.40M) だけでなく, より高速な技術 (SotA) 法 (約1dB PSNR) の現況を明らかに超えることができる。
論文 参考訳(メタデータ) (2021-07-02T11:55:40Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Knowledge Distillation in Iterative Generative Models for Improved
Sampling Speed [0.0]
ノイズ条件スコアネットワークなどの反復生成モデルは、初期雑音ベクトルを徐々にデノベートすることで高品質なサンプルを生成する。
知識蒸留と画像生成の新たな関連性を確立し,多段階の認知過程を単一のステップに蒸留する手法を提案する。
我々のDenoising Studentsは、CIFAR-10とCelebAデータセットのGANに匹敵する高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2021-01-07T06:12:28Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。