論文の概要: The Superposition of Diffusion Models Using the Itô Density Estimator
- arxiv url: http://arxiv.org/abs/2412.17762v1
- Date: Mon, 23 Dec 2024 18:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:02.131952
- Title: The Superposition of Diffusion Models Using the Itô Density Estimator
- Title(参考訳): イトー密度推定器を用いた拡散モデルの重ね合わせ
- Authors: Marta Skreta, Lazar Atanackovic, Avishek Joey Bose, Alexander Tong, Kirill Neklyudov,
- Abstract要約: 以上の結果から,SuperDiffは大規模な事前学習拡散モデルに対してスケーラブルであることを示す。
また、スーパーディフは推論時間中に効率的であることを示し、論理ORや論理ANDといった従来の合成演算子を模倣する。
- 参考スコア(独自算出の注目度): 46.03684204456143
- License:
- Abstract: The Cambrian explosion of easily accessible pre-trained diffusion models suggests a demand for methods that combine multiple different pre-trained diffusion models without incurring the significant computational burden of re-training a larger combined model. In this paper, we cast the problem of combining multiple pre-trained diffusion models at the generation stage under a novel proposed framework termed superposition. Theoretically, we derive superposition from rigorous first principles stemming from the celebrated continuity equation and design two novel algorithms tailor-made for combining diffusion models in SuperDiff. SuperDiff leverages a new scalable It\^o density estimator for the log likelihood of the diffusion SDE which incurs no additional overhead compared to the well-known Hutchinson's estimator needed for divergence calculations. We demonstrate that SuperDiff is scalable to large pre-trained diffusion models as superposition is performed solely through composition during inference, and also enjoys painless implementation as it combines different pre-trained vector fields through an automated re-weighting scheme. Notably, we show that SuperDiff is efficient during inference time, and mimics traditional composition operators such as the logical OR and the logical AND. We empirically demonstrate the utility of using SuperDiff for generating more diverse images on CIFAR-10, more faithful prompt conditioned image editing using Stable Diffusion, and improved unconditional de novo structure design of proteins. https://github.com/necludov/super-diffusion
- Abstract(参考訳): カンブリア爆発(カンブリア爆発、Cambrian explosion)は、複数の異なる事前学習拡散モデルを組み合わせて、より大きな組み合わせモデルを再学習する計算負担を伴わない方法の需要を示唆している。
本稿では,複数の事前学習した拡散モデルを生成段階に組み合わせて,重ね合わせ(superposition)という新しい枠組みを提案する。
理論的には、祝福された連続性方程式から導かれる厳密な第一原理から重畳を導出し、スーパーディフの拡散モデルを組み合わせるための2つの新しいアルゴリズムを設計する。
SuperDiffは、拡散SDEのログ可能性に新しいスケーラブルな It\^o 密度推定器を利用するが、これは分散計算に必要なハッチンソンのよく知られた推定器と比較して、追加のオーバーヘッドを生じない。
我々は,スーパーディフが,仮定中の合成のみで重畳を行うため,大規模な事前学習拡散モデルに対してスケーラブルであることを示し,また,自動再重み付け方式により,異なる事前学習ベクトル場を組み合わせることで,無痛な実装を享受することを示した。
特に、スーパーディフは推論時間中に効率的であることを示し、論理ORや論理ANDといった従来の合成演算子を模倣する。
我々は、CIFAR-10上でより多様な画像を生成するためにSuperDiffを使用すること、安定拡散を用いたより忠実な条件付き画像編集、タンパク質の非条件デノボ構造設計の改善を実証的に示す。
https://github.com/necludov/super-diffusion
関連論文リスト
- Heavy-Tailed Diffusion Models [38.713884992630675]
従来の拡散・流れマッチングモデルでは, 重み付き挙動を捉えることができないことを示す。
ヘビーテール推定のための拡散フレームワークを再利用することで、この問題に対処する。
既存の拡散・流動モデルの拡張である t-EDM と t-Flow を導入する。
論文 参考訳(メタデータ) (2024-10-18T04:29:46Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Non-Uniform Diffusion Models [0.8602553195689513]
非一様拡散は、マルチスケール正規化フローと似た構造を持つマルチスケール拡散モデルをもたらすことを示す。
実験により, 同一あるいは少ないトレーニング時間において, マルチスケール拡散モデルでは, 標準均一拡散モデルよりも優れたFIDスコアが得られることがわかった。
また, 非一様拡散は, 条件付きスコア関数に対して, 最先端の条件付きデノナイジング推定器と同等の性能を達成するための新しい推定器となることを示す。
論文 参考訳(メタデータ) (2022-07-20T09:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。