論文の概要: Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions
- arxiv url: http://arxiv.org/abs/2302.07261v1
- Date: Tue, 14 Feb 2023 18:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:33:13.268985
- Title: Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions
- Title(参考訳): 拡散する場所、拡散する方法、そして戻る方法: 多変量拡散のための自動学習
- Authors: Raghav Singhal, Mark Goldstein, Rajesh Ranganath
- Abstract要約: 拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
- 参考スコア(独自算出の注目度): 22.04182099405728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based generative models (DBGMs) perturb data to a target noise
distribution and reverse this inference diffusion process to generate samples.
The choice of inference diffusion affects both likelihoods and sample quality.
For example, extending the inference process with auxiliary variables leads to
improved sample quality. While there are many such multivariate diffusions to
explore, each new one requires significant model-specific analysis, hindering
rapid prototyping and evaluation. In this work, we study Multivariate Diffusion
Models (MDMs). For any number of auxiliary variables, we provide a recipe for
maximizing a lower-bound on the MDMs likelihood without requiring any
model-specific analysis. We then demonstrate how to parameterize the diffusion
for a specified target noise distribution; these two points together enable
optimizing the inference diffusion process. Optimizing the diffusion expands
easy experimentation from just a few well-known processes to an automatic
search over all linear diffusions. To demonstrate these ideas, we introduce two
new specific diffusions as well as learn a diffusion process on the MNIST,
CIFAR10, and ImageNet32 datasets. We show learned MDMs match or surpass
bits-per-dims (BPDs) relative to fixed choices of diffusions for a given
dataset and model architecture.
- Abstract(参考訳): 拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
推論拡散の選択は、可能性とサンプル品質の両方に影響する。
例えば、推論プロセスを補助変数で拡張すると、サンプルの品質が向上する。
探索にはこのような多変量拡散が多数存在するが、それぞれに重要なモデル固有の分析が必要であり、迅速なプロトタイピングと評価を妨げる。
本研究では,多変量拡散モデル(MDM)について検討する。
任意の補助変数に対して,モデル固有の解析を必要とせず,mdmの確率を最大化するためのレシピを提供する。
次に、特定対象雑音分布の拡散をパラメータ化する方法を示し、これら2つの点を合わせて推論拡散過程を最適化する。
拡散の最適化は、いくつかのよく知られたプロセスから全ての線形拡散に対する自動探索まで容易に実験できる。
これらのアイデアを実証するために、MNIST、CIFAR10、ImageNet32データセット上で拡散過程を学ぶために、2つの新しい拡散法を導入する。
与えられたデータセットとモデルアーキテクチャに対する拡散の固定的な選択に対して、学習されたMDMが一致しているか、ビット当たりのビット数(BPD)を超えるかを示す。
関連論文リスト
- Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Diffusion Rejection Sampling [13.945372555871414]
Diffusion Rejection Sampling (DiffRS) は、サンプリングされたトランジションカーネルを各タイムステップで真のカーネルと整列するリジェクションサンプリングスキームである。
提案手法は, 各中間段階における試料の品質を評価し, 試料に応じて異なる作業で精製する機構とみなすことができる。
実験により,ベンチマークデータセット上でのDiffRSの最先端性能と高速拡散サンプリングおよび大規模テキスト・画像拡散モデルに対するDiffRSの有効性を実証した。
論文 参考訳(メタデータ) (2024-05-28T07:00:28Z) - Intention-aware Denoising Diffusion Model for Trajectory Prediction [14.524496560759555]
軌道予測は、特に衝突回避システムにおいて、自律運転において不可欠な要素である。
本稿では,拡散モデルを用いて将来の軌道の分布を生成することを提案する。
Intention-aware denoising Diffusion Model (IDM)を提案する。
提案手法は,SDDデータセットでは13.83ピクセル,ETH/UCYデータセットでは0.36メートルのFDEで,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-03-14T09:05:25Z) - Lecture Notes in Probabilistic Diffusion Models [0.5361320134021585]
拡散モデルは非平衡熱力学に基づいてゆるやかにモデル化される。
拡散モデルは、元のデータサンプルが属するデータ多様体を学習する。
拡散モデルは、変分オートエンコーダやフローモデルとは異なり、元のデータと同じ次元の潜伏変数を持つ。
論文 参考訳(メタデータ) (2023-12-16T09:36:54Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Eliminating Lipschitz Singularities in Diffusion Models [51.806899946775076]
拡散モデルは、時間ステップの零点付近で無限のリプシッツをしばしば表すことを示す。
これは、積分演算に依存する拡散過程の安定性と精度に脅威をもたらす。
我々はE-TSDMと呼ばれる新しい手法を提案し、これは0に近い拡散モデルのリプシッツを除去する。
論文 参考訳(メタデータ) (2023-06-20T03:05:28Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Denoising Diffusion Samplers [41.796349001299156]
拡散モデルの認知は、多くの領域で最先端の結果を提供する生成モデルの一般的なクラスである。
我々は、非正規化確率密度関数から大まかにサンプリングし、それらの正規化定数を推定する類似のアイデアを探求する。
この文脈ではスコアマッチングは適用できないが、モンテカルロサンプリングのために生成的モデリングで導入された多くのアイデアを利用することができる。
論文 参考訳(メタデータ) (2023-02-27T14:37:16Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - First Hitting Diffusion Models [19.19644194006565]
First Hitting Diffusion Models (FHDM) は、ランダムな最初のヒット時間で終了する拡散プロセスでデータを生成する。
品質と速度の両面で、最先端のアプローチと比較して、かなりの改善が見られた。
論文 参考訳(メタデータ) (2022-09-02T17:01:32Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。