論文の概要: Hierarchically branched diffusion models leverage dataset structure for
class-conditional generation
- arxiv url: http://arxiv.org/abs/2212.10777v4
- Date: Thu, 1 Feb 2024 23:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:53:52.034381
- Title: Hierarchically branched diffusion models leverage dataset structure for
class-conditional generation
- Title(参考訳): クラス条件生成のためのデータセット構造を活用した階層分岐拡散モデル
- Authors: Alex M. Tseng, Max Shen, Tommaso Biancalani, Gabriele Scalia
- Abstract要約: 分岐拡散モデルは従来のモデルと同じ拡散過程に依存するが、階層の各分岐について別々に逆拡散を学ぶ。
いくつかのベンチマークと大規模実世界の科学データセットで分岐拡散モデルを広範囲に評価した。
- 参考スコア(独自算出の注目度): 0.6800113478497425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-labeled datasets, particularly those common in scientific domains, are
rife with internal structure, yet current class-conditional diffusion models
ignore these relationships and implicitly diffuse on all classes in a flat
fashion. To leverage this structure, we propose hierarchically branched
diffusion models as a novel framework for class-conditional generation.
Branched diffusion models rely on the same diffusion process as traditional
models, but learn reverse diffusion separately for each branch of a hierarchy.
We highlight several advantages of branched diffusion models over the current
state-of-the-art methods for class-conditional diffusion, including extension
to novel classes in a continual-learning setting, a more sophisticated form of
analogy-based conditional generation (i.e. transmutation), and a novel
interpretability into the generation process. We extensively evaluate branched
diffusion models on several benchmark and large real-world scientific datasets
spanning many data modalities.
- Abstract(参考訳): クラスラベル付きデータセット、特に科学領域で一般的なデータセットは内部構造を持つが、現在のクラス条件拡散モデルはこれらの関係を無視し、フラットな方法で全てのクラスに暗黙的に拡散する。
この構造を活用するために,クラス条件生成のための新しいフレームワークとして階層的分岐拡散モデルを提案する。
分岐拡散モデルは従来のモデルと同じ拡散過程に依存するが、階層の各分岐に対して個別に逆拡散を学ぶ。
本稿では,現在最先端のクラス条件拡散法に対する分岐拡散モデルの利点として,連続学習環境における新しいクラスの拡張,アナログベース条件生成のより洗練された形式(変換),生成プロセスへの新しい解釈可能性などを挙げる。
いくつかのベンチマークと大規模実世界の科学データセットで分岐拡散モデルを広範囲に評価した。
関連論文リスト
- How compositional generalization and creativity improve as diffusion models are trained [82.08869888944324]
生成モデルでは、多くの新しいデータを生成するために、構成規則を学習する必要があるサンプルはいくつありますか?
言語や画像などのデータ構造を表現するために,木のようなグラフィカルモデルを用いて,単純な文脈自由文法に基づいて学習した拡散モデルを考察する。
拡散モデルは,統計学的に類似したコンテキストを持つクラスタリング機能に必要なサンプル複雑度で構成規則を学習する。
論文 参考訳(メタデータ) (2025-02-17T18:06:33Z) - Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - On the Feature Learning in Diffusion Models [26.53807235141923]
本稿では,拡散モデルの学習力学を従来の分類モデルと比較し,分析・比較することを目的とした特徴学習フレームワークを提案する。
我々の理論的分析は、同じ条件下で拡散モデルがデータのよりバランスよく包括的な表現を学習することを奨励していることを示している。
対照的に、分類のために訓練された類似アーキテクチャを持つニューラルネットワークは、データの特定のパターンを学ぶことを優先する傾向がある。
論文 参考訳(メタデータ) (2024-12-02T00:41:25Z) - Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - A Phase Transition in Diffusion Models Reveals the Hierarchical Nature of Data [51.03144354630136]
最近の進歩は、拡散モデルが高品質な画像を生成することを示している。
我々はこの現象を階層的なデータ生成モデルで研究する。
t$の後に作用する後方拡散過程は相転移によって制御される。
論文 参考訳(メタデータ) (2024-02-26T19:52:33Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Navigating the Structured What-If Spaces: Counterfactual Generation via
Structured Diffusion [20.20945739504847]
本稿では,構造データ中の反現実的説明を生成するために拡散を利用した最初のプラグアンドプレイフレームワークであるStructured Counterfactual diffuser(SCD)を紹介する。
実験の結果, 既存の最先端技術と比較して高い妥当性を示すだけでなく, 近接性や多様性も著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T07:05:21Z) - The Emergence of Reproducibility and Generalizability in Diffusion Models [10.188731323681575]
同じスタートノイズ入力と決定論的サンプリングが与えられた場合、異なる拡散モデルはしばしば驚くほど類似した出力が得られる。
拡散モデルはトレーニングデータサイズの影響を受けやすい分布を学習していることを示す。
この価値ある性質は、条件付き使用、逆問題解決、モデル微調整など、拡散モデルの多くの変種に一般化される。
論文 参考訳(メタデータ) (2023-10-08T19:02:46Z) - Renormalizing Diffusion Models [0.7252027234425334]
拡散モデルを用いて、統計および量子場理論の逆再正規化群フローを学習する。
我々の研究は、多スケール拡散モデルの解釈を提供し、新しい性質を持つべき拡散モデルに対する物理的に着想を得た提案を与える。
論文 参考訳(メタデータ) (2023-08-23T18:02:31Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。