論文の概要: Hierarchically branched diffusion models for efficient and interpretable
multi-class conditional generation
- arxiv url: http://arxiv.org/abs/2212.10777v1
- Date: Wed, 21 Dec 2022 05:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:01:41.989088
- Title: Hierarchically branched diffusion models for efficient and interpretable
multi-class conditional generation
- Title(参考訳): 効率的かつ解釈可能な多クラス条件生成のための階層分岐拡散モデル
- Authors: Alex M. Tseng, Tommaso Biancalani, Max Shen, Gabriele Scalia
- Abstract要約: 分岐拡散モデルは、クラス間の固有の関係に従って階層的に分岐される。
分岐拡散モデルが複数のクラスから効率的にサンプルを生成できることを実証する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved justifiable popularity by attaining
state-of-the-art performance in generating realistic objects from seemingly
arbitrarily complex data distributions, including when conditioning generation
on labels. Unfortunately, however, their iterative nature renders them very
computationally inefficient during the sampling process. For the multi-class
conditional generation problem, we propose a novel, structurally unique
framework of diffusion models which are hierarchically branched according to
the inherent relationships between classes. In this work, we demonstrate that
branched diffusion models offer major improvements in efficiently generating
samples from multiple classes. We also showcase several other advantages of
branched diffusion models, including ease of extension to novel classes in a
continual-learning setting, and a unique interpretability that offers insight
into these generative models. Branched diffusion models represent an
alternative paradigm to their traditional linear counterparts, and can have
large impacts in how we use diffusion models for efficient generation, online
learning, and scientific discovery.
- Abstract(参考訳): 拡散モデルは、ラベルのコンディショニング生成を含む、一見任意に複雑なデータ分布からリアルなオブジェクトを生成するための最先端のパフォーマンスを達成することで、正当な人気を得た。
しかし残念なことに、反復的な性質により、サンプリングプロセス中に非常に計算効率が低下する。
多クラス条件生成問題に対して、クラス間の固有の関係に応じて階層的に分岐する拡散モデルの、構造的にユニークな新しいフレームワークを提案する。
本研究では、分岐拡散モデルが複数のクラスから効率的にサンプルを生成する上で大きな改善をもたらすことを示す。
また,連続学習環境における新しいクラスへの拡張の容易さや,これらの生成モデルに対する洞察を提供するユニークな解釈可能性など,分岐拡散モデルの他の利点も紹介する。
分岐拡散モデルは従来の線形モデルに代わるパラダイムであり、効率的な生成、オンライン学習、科学的発見に拡散モデルを使う方法に大きな影響を与える可能性がある。
関連論文リスト
- Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - A Phase Transition in Diffusion Models Reveals the Hierarchical Nature
of Data [55.748186000425996]
最近の進歩は、拡散モデルが高品質な画像を生成することを示している。
我々はこの現象を階層的なデータ生成モデルで研究する。
本分析は拡散モデルにおける時間とスケールの関係を特徴付ける。
論文 参考訳(メタデータ) (2024-02-26T19:52:33Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Navigating the Structured What-If Spaces: Counterfactual Generation via
Structured Diffusion [20.20945739504847]
本稿では,構造データ中の反現実的説明を生成するために拡散を利用した最初のプラグアンドプレイフレームワークであるStructured Counterfactual diffuser(SCD)を紹介する。
実験の結果, 既存の最先端技術と比較して高い妥当性を示すだけでなく, 近接性や多様性も著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T07:05:21Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - The Emergence of Reproducibility and Generalizability in Diffusion Models [10.188731323681575]
同じスタートノイズ入力と決定論的サンプリングが与えられた場合、異なる拡散モデルはしばしば驚くほど類似した出力が得られる。
拡散モデルはトレーニングデータサイズの影響を受けやすい分布を学習していることを示す。
この価値ある性質は、条件付き使用、逆問題解決、モデル微調整など、拡散モデルの多くの変種に一般化される。
論文 参考訳(メタデータ) (2023-10-08T19:02:46Z) - Renormalizing Diffusion Models [0.7252027234425334]
拡散モデルを用いて、統計および量子場理論の逆再正規化群フローを学習する。
我々の研究は、多スケール拡散モデルの解釈を提供し、新しい性質を持つべき拡散モデルに対する物理的に着想を得た提案を与える。
論文 参考訳(メタデータ) (2023-08-23T18:02:31Z) - A Survey of Diffusion Models in Natural Language Processing [11.233768932957771]
拡散モデルは、ネットワークや多様体にまたがる情報や信号の拡散を捉える。
本稿は,NLPで使用される拡散モデルの異なる定式化,その強度と限界,それらの応用について論じる。
論文 参考訳(メタデータ) (2023-05-24T03:25:32Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。