論文の概要: Diffusion models learn distributions generated by complex Langevin dynamics
- arxiv url: http://arxiv.org/abs/2412.01919v1
- Date: Mon, 02 Dec 2024 19:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:28.650977
- Title: Diffusion models learn distributions generated by complex Langevin dynamics
- Title(参考訳): 拡散モデルは複素ランゲヴィン力学によって生成される分布を学習する
- Authors: Diaa E. Habibi, Gert Aarts, Lingxiao Wang, Kai Zhou,
- Abstract要約: 生成AIのクラスである拡散モデルは、データから分布を学習することができる。
このコントリビューションでは、複雑なランゲヴィン過程によって生成された分布を学習する拡散モデルについて検討する。
- 参考スコア(独自算出の注目度): 6.610338540492242
- License:
- Abstract: The probability distribution effectively sampled by a complex Langevin process for theories with a sign problem is not known a priori and notoriously hard to understand. Diffusion models, a class of generative AI, can learn distributions from data. In this contribution, we explore the ability of diffusion models to learn the distributions created by a complex Langevin process.
- Abstract(参考訳): 符号問題を持つ理論に対して、複雑なランゲヴィン過程によって効果的にサンプリングされた確率分布は、先行性は知られておらず、理解が難しいことで知られている。
生成AIのクラスである拡散モデルは、データから分布を学習することができる。
このコントリビューションでは、複雑なランゲヴィン過程によって生成された分布を学習する拡散モデルについて検討する。
関連論文リスト
- How Discrete and Continuous Diffusion Meet: Comprehensive Analysis of Discrete Diffusion Models via a Stochastic Integral Framework [11.71206628091551]
L'evy型積分に基づく離散拡散モデルの誤差解析のための包括的フレームワークを提案する。
我々のフレームワークは、離散拡散モデルにおける現在の理論結果を統一し、強化する。
論文 参考訳(メタデータ) (2024-10-04T16:59:29Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - An Overview of Diffusion Models: Applications, Guided Generation, Statistical Rates and Optimization [59.63880337156392]
拡散モデルはコンピュータビジョン、オーディオ、強化学習、計算生物学において大きな成功を収めた。
経験的成功にもかかわらず、拡散モデルの理論は非常に限定的である。
本稿では,前向きな理論や拡散モデルの手法を刺激する理論的露光について述べる。
論文 参考訳(メタデータ) (2024-04-11T14:07:25Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Generalised Scale-Space Properties for Probabilistic Diffusion Models [1.52292571922932]
確率拡散モデルにより, 発展する確率分布に一般化された空間特性が満たされることを示す。
深層学習とモデルに基づく世界におけるドリフト拡散という物理コア概念の解釈の類似性と相違について論じる。
論文 参考訳(メタデータ) (2023-03-14T13:41:28Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Information-Theoretic Diffusion [18.356162596599436]
拡散モデルのデノイングは密度モデリングや画像生成において大きな進歩をもたらした。
情報理論における古典的な結果にインスパイアされた拡散モデルのための新しい数学的基礎を導入する。
論文 参考訳(メタデータ) (2023-02-07T23:03:07Z) - Source Localization of Graph Diffusion via Variational Autoencoders for
Graph Inverse Problems [8.984898754363265]
グラフ拡散の逆問題としてのソースローカライゼーションは極めて困難である。
本稿では,異なる候補源の不確実性を考慮した確率的手法に焦点をあてる。
7つの実世界のデータセット上で実験を行い、拡散源の再構築におけるSL-VAEの優位性を実証した。
論文 参考訳(メタデータ) (2022-06-24T14:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。