論文の概要: Overclocking Electrostatic Generative Models
- arxiv url: http://arxiv.org/abs/2509.22454v1
- Date: Fri, 26 Sep 2025 15:07:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.53175
- Title: Overclocking Electrostatic Generative Models
- Title(参考訳): オーバークロック静電生成モデル
- Authors: Daniil Shlenskii, Alexander Korotin,
- Abstract要約: PFGM++は補助次元$D$で拡張データ空間で動作し、拡散モデルフレームワークを$Dtoinfty$として回復する。
Inverse Poisson Flow Matching (IPFM, Inverse Poisson Flow Matching)を提案する。
IPFMは、ごく少数の機能評価だけで、ほぼ教師に近い、あるいは優れたサンプル品質を実現する蒸留発電機を生産する。
- 参考スコア(独自算出の注目度): 59.271136356755996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electrostatic generative models such as PFGM++ have recently emerged as a powerful framework, achieving state-of-the-art performance in image synthesis. PFGM++ operates in an extended data space with auxiliary dimensionality $D$, recovering the diffusion model framework as $D\to\infty$, while yielding superior empirical results for finite $D$. Like diffusion models, PFGM++ relies on expensive ODE simulations to generate samples, making it computationally costly. To address this, we propose Inverse Poisson Flow Matching (IPFM), a novel distillation framework that accelerates electrostatic generative models across all values of $D$. Our IPFM reformulates distillation as an inverse problem: learning a generator whose induced electrostatic field matches that of the teacher. We derive a tractable training objective for this problem and show that, as $D \to \infty$, our IPFM closely recovers Score Identity Distillation (SiD), a recent method for distilling diffusion models. Empirically, our IPFM produces distilled generators that achieve near-teacher or even superior sample quality using only a few function evaluations. Moreover, we observe that distillation converges faster for finite $D$ than in the $D \to \infty$ (diffusion) limit, which is consistent with prior findings that finite-$D$ PFGM++ models exhibit more favorable optimization and sampling properties.
- Abstract(参考訳): PFGM++のような静電生成モデルは、最近強力なフレームワークとして登場し、画像合成における最先端のパフォーマンスを実現している。
PFGM++は、補助次元$D$で拡張データ空間で動作し、拡散モデルフレームワークを$D\to\infty$として回収し、有限の$D$に対して優れた実験結果を得る。
拡散モデルと同様に、PFGM++は高価なODEシミュレーションを使ってサンプルを生成する。
そこで本研究では,新しい蒸留フレームワークである逆ポアソンフローマッチング (IPFM) を提案する。
我々のIPFMは, 蒸留を逆問題として再定義し, 誘導静電場が教師のものと一致した発電機を学習する。
我々は,この問題の抽出可能なトレーニング目標を導出し,最近の拡散モデルの蒸留法であるScore Identity Distillation (SiD) を$D \to \infty$として,IPFMが密接に回復することを示す。
実験的にIPFMは, ごく少数の機能評価を用いて, ほぼ教師に近い, あるいは優れたサンプル品質が得られる蒸留発電機を生産する。
さらに、蒸留は$D \to \infty$ (diffusion) 限界よりも有限$D$に対して早く収束し、有限$D$PFGM++モデルの方がより好ましい最適化とサンプリング特性を示すという以前の知見と一致している。
関連論文リスト
- Di$\mathtt{[M]}$O: Distilling Masked Diffusion Models into One-step Generator [22.88494918435088]
Masked Diffusion Models (MDM) は強力な生成モデリング手法として登場した。
マスク拡散モデルを1ステップ生成器に蒸留する新しい手法であるDi$mathtt[M]$Oを提案する。
クラス条件およびテキスト条件画像生成におけるDi$mathtt[M]$Oの有効性を示す。
論文 参考訳(メタデータ) (2025-03-19T17:36:54Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - One-Step Diffusion Distillation through Score Implicit Matching [74.91234358410281]
本稿では,Score Implicit Matching (SIM) を用いて,事前学習した拡散モデルを単一ステップジェネレータモデルに蒸留する手法を提案する。
SIMはワンステップジェネレータに対して強い経験的性能を示す。
リードトランスに基づく拡散モデルにSIMを適用することにより,テキスト・ツー・イメージ生成のための単一ステップ生成器を蒸留する。
論文 参考訳(メタデータ) (2024-10-22T08:17:20Z) - EM Distillation for One-step Diffusion Models [65.57766773137068]
最小品質の損失を最小限に抑えた1ステップ生成モデルに拡散モデルを蒸留する最大可能性に基づく手法を提案する。
本研究では, 蒸留プロセスの安定化を図るため, 再パラメータ化サンプリング手法とノイズキャンセリング手法を開発した。
論文 参考訳(メタデータ) (2024-05-27T05:55:22Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。