論文の概要: The Emergence of Reproducibility and Consistency in Diffusion Models
- arxiv url: http://arxiv.org/abs/2310.05264v3
- Date: Wed, 21 Feb 2024 01:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 20:18:16.928053
- Title: The Emergence of Reproducibility and Consistency in Diffusion Models
- Title(参考訳): 拡散モデルにおける再現性と一貫性の出現
- Authors: Huijie Zhang, Jinfan Zhou, Yifu Lu, Minzhe Guo, Peng Wang, Liyue Shen,
Qing Qu
- Abstract要約: 同じスタートノイズ入力と決定論的サンプリングが与えられた場合、異なる拡散モデルはしばしば驚くほど類似した出力が得られる。
拡散モデルはトレーニングデータサイズの影響を受けやすい分布を学習していることを示す。
この価値ある性質は、条件付き使用、逆問題解決、モデル微調整など、拡散モデルの多くの変種に一般化される。
- 参考スコア(独自算出の注目度): 10.699652598371213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate an intriguing and prevalent phenomenon of
diffusion models which we term as "consistent model reproducibility": given the
same starting noise input and a deterministic sampler, different diffusion
models often yield remarkably similar outputs. We confirm this phenomenon
through comprehensive experiments, implying that different diffusion models
consistently reach the same data distribution and scoring function regardless
of diffusion model frameworks, model architectures, or training procedures.
More strikingly, our further investigation implies that diffusion models are
learning distinct distributions affected by the training data size. This is
supported by the fact that the model reproducibility manifests in two distinct
training regimes: (i) "memorization regime", where the diffusion model overfits
to the training data distribution, and (ii) "generalization regime", where the
model learns the underlying data distribution. Our study also finds that this
valuable property generalizes to many variants of diffusion models, including
those for conditional use, solving inverse problems, and model fine-tuning.
Finally, our work raises numerous intriguing theoretical questions for future
investigation and highlights practical implications regarding training
efficiency, model privacy, and the controlled generation of diffusion models.
- Abstract(参考訳): そこで本研究では,同一の開始雑音入力と決定論的サンプラーが与えられると,異なる拡散モデルが著しく類似した出力を生成するという,拡散モデルの興味深く,広く普及する現象について検討する。
拡散モデルフレームワークやモデルアーキテクチャ、トレーニング手順に関わらず、異なる拡散モデルが一貫して同じデータ分布とスコアリング関数に達することを示唆し、包括的な実験を通じてこの現象を確認した。
さらに注目すべきは、拡散モデルがトレーニングデータサイズの影響を受けやすい分布を学習していることである。
これは、モデル再現性が2つの異なる訓練体制に現れるという事実に支えられている。
(i)拡散モデルがトレーニングデータ分布に過剰に適合する「記憶レジーム」、及び
(2)モデルが基礎となるデータ分布を学習する「一般化体制」。
また, この性質は, 条件付き使用, 逆問題解決, モデル微調整など, 拡散モデルの多くの変種に一般化されることが示唆された。
最後に,我々の研究は,今後の研究に多くの興味深い理論的疑問を提起し,トレーニング効率,モデルプライバシ,拡散モデルの生成制御に関する実践的意義を強調する。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Renormalizing Diffusion Models [0.7252027234425334]
拡散モデルを用いて、統計および量子場理論の逆再正規化群フローを学習する。
我々の研究は、多スケール拡散モデルの解釈を提供し、新しい性質を持つべき拡散モデルに対する物理的に着想を得た提案を与える。
論文 参考訳(メタデータ) (2023-08-23T18:02:31Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - On the Generalization of Diffusion Model [42.447639515467934]
生成したデータとトレーニングセットの相互情報によって測定される生成モデルの一般化を定義する。
実験的最適拡散モデルでは, 決定論的サンプリングによって生成されたデータは, すべてトレーニングセットに強く関連しており, 一般化が不十分であることを示す。
本稿では,経験的最適解が一般化問題を持たない別の学習目標を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:57Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Diffusion Models for Medical Image Analysis: A Comprehensive Survey [7.272308924113656]
生成モデルのクラスである拡散モデルのデノイングは、近年、様々なディープラーニング問題に多大な関心を集めている。
拡散モデルは、その強いモードカバレッジと、生成されたサンプルの品質で広く評価されている。
本調査では,医療画像解析の分野における拡散モデルの概要について概観する。
論文 参考訳(メタデータ) (2022-11-14T23:50:52Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。