論文の概要: Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models
- arxiv url: http://arxiv.org/abs/2310.13102v2
- Date: Fri, 24 Nov 2023 09:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 03:06:29.263609
- Title: Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models
- Title(参考訳): 粒子誘導:拡散モデルを用いた非I.D.逆サンプリング
- Authors: Gabriele Corso, Yilun Xu, Valentin de Bortoli, Regina Barzilay, Tommi
Jaakkola
- Abstract要約: 本稿では, 粒子間時間進化ポテンシャルが多様性を強制する拡散型生成サンプリングの拡張である粒子誘導法を提案する。
我々は,粒子誘導が生み出す結合分布,最適多様性を達成するポテンシャルの学習方法,および他の分野の手法との関係を理論的に分析する。
- 参考スコア(独自算出の注目度): 41.192240810280424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In light of the widespread success of generative models, a significant amount
of research has gone into speeding up their sampling time. However, generative
models are often sampled multiple times to obtain a diverse set incurring a
cost that is orthogonal to sampling time. We tackle the question of how to
improve diversity and sample efficiency by moving beyond the common assumption
of independent samples. We propose particle guidance, an extension of
diffusion-based generative sampling where a joint-particle time-evolving
potential enforces diversity. We analyze theoretically the joint distribution
that particle guidance generates, how to learn a potential that achieves
optimal diversity, and the connections with methods in other disciplines.
Empirically, we test the framework both in the setting of conditional image
generation, where we are able to increase diversity without affecting quality,
and molecular conformer generation, where we reduce the state-of-the-art median
error by 13% on average.
- Abstract(参考訳): 生成モデルが広く成功したことを踏まえ、かなりの量の研究がサンプリング時間の短縮に費やされている。
しかし、生成モデルはサンプリング時間に直交するコストをもたらす多様な集合を得るために、しばしば何度もサンプリングされる。
独立標本の共通仮定を超えて多様性とサンプル効率を改善するかという課題に取り組む。
本稿では,粒子の時間発展ポテンシャルが多様性を強制する拡散に基づく生成サンプリングの拡張である粒子指導を提案する。
我々は,粒子誘導が生み出す結合分布,最適多様性を達成するポテンシャルの学習方法,および他の分野の手法との関係を理論的に分析する。
実験により,条件付き画像生成の設定,品質に影響を与えずに多様性を向上させること,および分子コンホメータ生成において,最先端の中央値誤差を平均13%削減する手法を実証的に検証した。
関連論文リスト
- Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [111.90150190668555]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Stable generative modeling using diffusion maps [0.24578723416255752]
拡散写像とランゲヴィン力学を組み合わせた生成モデルを提案する。
拡散マップは、利用可能なトレーニングサンプルからのドリフト項を近似するために使用される。
トレーニングサンプルの凸部内に生成したサンプルが残ることを保証し, 新たな分割ステップ方式を導入する。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Fast Sampling via De-randomization for Discrete Diffusion Models [52.554915711265856]
本稿では, 離散拡散モデルの高速化に繋がる非ランダム化拡散過程を提案する。
提案手法は, ニューラルネットワークに対する関数評価の回数を大幅に削減し, サンプリング処理を高速化する。
自然言語生成および機械翻訳タスクの実験は,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - DLow: Diversifying Latent Flows for Diverse Human Motion Prediction [32.22704734791378]
本研究では,事前学習した深部生成モデルから多種多様なサンプル群を生成するために,新しいサンプリング手法であるDLow(Diversifying Latent Flows)を提案する。
トレーニング中、DLowはサンプルの多様性を改善するために潜伏マッピングを最適化する目的として、サンプルよりも多様性を優先する。
実験の結果,DLowはサンプルの多様性と精度で最先端のベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-18T17:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。