論文の概要: Training Latent Diffusion Models with Interacting Particle Algorithms
- arxiv url: http://arxiv.org/abs/2505.12412v2
- Date: Fri, 23 May 2025 18:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 12:08:36.592673
- Title: Training Latent Diffusion Models with Interacting Particle Algorithms
- Title(参考訳): 干渉粒子アルゴリズムを用いた潜時拡散モデルの訓練
- Authors: Tim Y. J. Wang, Juan Kuntz, O. Deniz Akyildiz,
- Abstract要約: 本稿では,潜伏拡散モデルのエンドツーエンド学習のための新しい粒子ベースアルゴリズムを提案する。
後者を相互作用する粒子系に近似することにより, 理論的には誤差保証を提供することで, 基礎となるアルゴリズムを得る。
- 参考スコア(独自算出の注目度): 0.40964539027092917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel particle-based algorithm for end-to-end training of latent diffusion models. We reformulate the training task as minimizing a free energy functional and obtain a gradient flow that does so. By approximating the latter with a system of interacting particles, we obtain the algorithm, which we underpin theoretically by providing error guarantees. The novel algorithm compares favorably in experiments with previous particle-based methods and variational inference analogues.
- Abstract(参考訳): 本稿では,潜伏拡散モデルのエンドツーエンド学習のための新しい粒子ベースアルゴリズムを提案する。
我々は、自由エネルギー関数の最小化としてトレーニングタスクを再構築し、それを行う勾配流を得る。
後者を相互作用する粒子の系と近似することにより, 理論的には誤差保証を提供することで, 基礎となるアルゴリズムを得る。
このアルゴリズムは、従来の粒子法や変分推論の類似物と実験において好適に比較できる。
関連論文リスト
- Self-Supervised Coarsening of Unstructured Grid with Automatic Differentiation [55.88862563823878]
本研究では,微分可能物理の概念に基づいて,非構造格子を階層化するアルゴリズムを提案する。
多孔質媒質中のわずかに圧縮可能な流体流を制御した線形方程式と波動方程式の2つのPDE上でのアルゴリズムの性能を示す。
その結果,検討したシナリオでは,関心点におけるモデル変数のダイナミクスを保ちながら,格子点数を最大10倍に削減した。
論文 参考訳(メタデータ) (2025-07-24T11:02:13Z) - Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [62.640128548633946]
離散拡散モデルに対する粒子ギブズサンプリングに基づく新しい推論時間スケーリング手法を提案する。
提案手法は,報酬誘導テキスト生成タスクにおける事前推定時間戦略を常に上回る。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Accelerating Particle-based Energetic Variational Inference [5.618322163107168]
EVI-Im を高速化する粒子ベース変分推定法 (ParVI) を提案する。
勾配流のエネルギー四分法(EQ)と演算子分割法に着想を得て,本手法は粒子を目標分布へ効率的に駆動する。
論文 参考訳(メタデータ) (2025-04-04T04:31:19Z) - Differentiable Interacting Multiple Model Particle Filtering [24.26220422457388]
本研究では,パラメータ学習のための連続モンテカルロアルゴリズムを提案する。
我々は、微分可能な粒子フィルタリングの新たな枠組みを採用し、パラメータは勾配降下によって訓練される。
提案アルゴリズムの新たな理論的結果を確立し,従来の最先端アルゴリズムと比較して優れた数値性能を示す。
論文 参考訳(メタデータ) (2024-10-01T12:05:18Z) - New algorithms for sampling and diffusion models [0.0]
本稿では,未知分布を持つ拡散生成モデルのための新しいサンプリング手法と新しいアルゴリズムを提案する。
我々のアプローチは、拡散生成モデルにおいて広く採用されている逆拡散過程の概念に着想を得たものである。
論文 参考訳(メタデータ) (2024-06-14T02:30:04Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Momentum Particle Maximum Likelihood [2.4561590439700076]
自由エネルギー関数を最小化するための類似の力学系に基づくアプローチを提案する。
システムを離散化することにより、潜在変数モデルにおける最大推定のための実用的なアルゴリズムを得る。
このアルゴリズムは既存の粒子法を数値実験で上回り、他のMLEアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-12-12T14:53:18Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - A DeepParticle method for learning and generating aggregation patterns
in multi-dimensional Keller-Segel chemotaxis systems [3.6184545598911724]
ケラー・セガル (KS) ケモタキシー系の2次元および3次元における凝集パターンと近傍特異解の正則化相互作用粒子法について検討した。
さらに,物理パラメータの異なる解を学習し,生成するためのDeepParticle (DP) 法を開発した。
論文 参考訳(メタデータ) (2022-08-31T20:52:01Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。