論文の概要: Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models
- arxiv url: http://arxiv.org/abs/2310.13102v1
- Date: Thu, 19 Oct 2023 19:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:36:39.473046
- Title: Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models
- Title(参考訳): 粒子誘導:拡散モデルを用いた非I.D.逆サンプリング
- Authors: Gabriele Corso, Yilun Xu, Valentin de Bortoli, Regina Barzilay, Tommi
Jaakkola
- Abstract要約: 本稿では, 粒子間時間進化ポテンシャルが多様性を強制する拡散型生成サンプリングの拡張である粒子誘導法を提案する。
理論的には、粒子誘導が生み出す結合分布、ポテンシャルの選択に対する影響、および他の分野における方法との関係を解析する。
- 参考スコア(独自算出の注目度): 41.192240810280424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In light of the widespread success of generative models, a significant amount
of research has gone into speeding up their sampling time. However, generative
models are often sampled multiple times to obtain a diverse set incurring a
cost that is orthogonal to sampling time. We tackle the question of how to
improve diversity and sample efficiency by moving beyond the common assumption
of independent samples. We propose particle guidance, an extension of
diffusion-based generative sampling where a joint-particle time-evolving
potential enforces diversity. We analyze theoretically the joint distribution
that particle guidance generates, its implications on the choice of potential,
and the connections with methods in other disciplines. Empirically, we test the
framework both in the setting of conditional image generation, where we are
able to increase diversity without affecting quality, and molecular conformer
generation, where we reduce the state-of-the-art median error by 13% on
average.
- Abstract(参考訳): 生成モデルが広く成功したことを踏まえ、かなりの量の研究がサンプリング時間の短縮に費やされている。
しかし、生成モデルはサンプリング時間に直交するコストをもたらす多様な集合を得るために、しばしば何度もサンプリングされる。
独立標本の共通仮定を超えて多様性とサンプル効率を改善するかという課題に取り組む。
本稿では,粒子の時間発展ポテンシャルが多様性を強制する拡散に基づく生成サンプリングの拡張である粒子指導を提案する。
粒子誘導が生成する合同分布、そのポテンシャル選択への影響、および他の分野における手法との関係を理論的に解析する。
実験により,条件付き画像生成の設定,品質に影響を与えずに多様性を向上させること,および分子コンホメータ生成において,最先端の中央値誤差を平均13%削減する手法を実証的に検証した。
関連論文リスト
- Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Stable generative modeling using diffusion maps [0.24578723416255752]
拡散写像とランゲヴィン力学を組み合わせた生成モデルを提案する。
拡散マップは、利用可能なトレーニングサンプルからのドリフト項を近似するために使用される。
トレーニングサンプルの凸部内に生成したサンプルが残ることを保証し, 新たな分割ステップ方式を導入する。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Fast Sampling via De-randomization for Discrete Diffusion Models [52.554915711265856]
本稿では, 離散拡散モデルの高速化に繋がる非ランダム化拡散過程を提案する。
提案手法は, ニューラルネットワークに対する関数評価の回数を大幅に削減し, サンプリング処理を高速化する。
自然言語生成および機械翻訳タスクの実験は,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - DLow: Diversifying Latent Flows for Diverse Human Motion Prediction [32.22704734791378]
本研究では,事前学習した深部生成モデルから多種多様なサンプル群を生成するために,新しいサンプリング手法であるDLow(Diversifying Latent Flows)を提案する。
トレーニング中、DLowはサンプルの多様性を改善するために潜伏マッピングを最適化する目的として、サンプルよりも多様性を優先する。
実験の結果,DLowはサンプルの多様性と精度で最先端のベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-18T17:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。