論文の概要: PID-controlled Langevin Dynamics for Faster Sampling of Generative Models
- arxiv url: http://arxiv.org/abs/2511.12603v1
- Date: Sun, 16 Nov 2025 13:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.403355
- Title: PID-controlled Langevin Dynamics for Faster Sampling of Generative Models
- Title(参考訳): 生成モデルの高速サンプリングのためのPID制御ランゲヴィンダイナミクス
- Authors: Hongyi Chen, Jianhai Shu, Jingtao Ding, Yong Li, Xiao-Ping Zhang,
- Abstract要約: PID-control Langevin Dynamics (PIDLD) は、制御理論の原理を用いてサンプリングプロセスを再解釈する新しいサンプリング高速化アルゴリズムである。
当社のアプローチでは、追加のトレーニングやデータセット、あるいは事前情報を必要とせず、任意のLangevinベースのメソッドと即座に統合可能です。
- 参考スコア(独自算出の注目度): 23.59623435487056
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Langevin dynamics sampling suffers from extremely low generation speed, fundamentally limited by numerous fine-grained iterations to converge to the target distribution. We introduce PID-controlled Langevin Dynamics (PIDLD), a novel sampling acceleration algorithm that reinterprets the sampling process using control-theoretic principles. By treating energy gradients as feedback signals, PIDLD combines historical gradients (the integral term) and gradient trends (the derivative term) to efficiently traverse energy landscapes and adaptively stabilize, thereby significantly reducing the number of iterations required to produce high-quality samples. Our approach requires no additional training, datasets, or prior information, making it immediately integrable with any Langevin-based method. Extensive experiments across image generation and reasoning tasks demonstrate that PIDLD achieves higher quality with fewer steps, making Langevin-based generative models more practical for efficiency-critical applications. The implementation can be found at \href{https://github.com/tsinghua-fib-lab/PIDLD}{https://github.com/tsinghua-fib-lab/PIDLD}.
- Abstract(参考訳): ランゲヴィンダイナミックスサンプリングは非常に低い生成速度に悩まされ、基本的にはターゲット分布に収束する多数のきめ細かいイテレーションによって制限される。
PID制御Langevin Dynamics (PIDLD) は、制御理論の原理を用いてサンプリングプロセスを再解釈する新しいサンプリング高速化アルゴリズムである。
エネルギー勾配をフィードバック信号として扱うことにより、PIDLDは歴史的勾配(積分項)と勾配傾向(微分項)を組み合わせて効率よくエネルギーランドスケープを横断し、適応的に安定化し、高品質なサンプルを作成するのに必要なイテレーション数を著しく削減する。
当社のアプローチでは、追加のトレーニングやデータセット、あるいは事前情報を必要とせず、任意のLangevinベースのメソッドと即座に統合可能です。
画像生成と推論タスクにわたる大規模な実験により、PIDLDはより少ないステップでより高い品質を達成することが示され、Langevinベースの生成モデルは効率クリティカルなアプリケーションにとってより実用的なものとなった。
実装は \href{https://github.com/tsinghua-fib-lab/PIDLD}{https://github.com/tsinghua-fib-lab/PIDLD} で見ることができる。
関連論文リスト
- A Proportional-Integral Controller-Incorporated SGD Algorithm for High Efficient Latent Factor Analysis [1.4719924357068723]
勾配降下に基づく潜在因子分析(SGD-LFA)法は,HDI行列に埋め込まれた深い特徴情報を効果的に抽出することができる。
本稿では,PIを高速化するSGDアルゴリズムを開発したPILFモデルを提案する。
論文 参考訳(メタデータ) (2025-08-25T02:39:23Z) - Distilling Parallel Gradients for Fast ODE Solvers of Diffusion Models [53.087070073434845]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低レイテンシの予算で画像品質が劣化することが多い。
本稿では、各ODEステップに複数の並列勾配評価を組み込むことで、トランケーションエラーを軽減する新しいODEソルバであるEnsemble Parallel Direction Solutionrを提案する。
論文 参考訳(メタデータ) (2025-07-20T03:08:06Z) - ODE$_t$(ODE$_l$): Shortcutting the Time and Length in Diffusion and Flow Models for Faster Sampling [33.87434194582367]
本研究では,品質・複雑さのトレードオフを動的に制御できる相補的な方向について検討する。
我々は,フローマッチングトレーニング中に時間と長さの整合性項を用い,任意の時間ステップでサンプリングを行うことができる。
従来の技術と比較すると、CelebA-HQとImageNetのイメージ生成実験は、最も効率的なサンプリングモードで最大3$times$のレイテンシの低下を示している。
論文 参考訳(メタデータ) (2025-06-26T18:59:59Z) - Neural Flow Samplers with Shortcut Models [19.81513273510523]
連続フローベースのニューラルサンプリングは、非正規化された密度からサンプルを生成するための有望なアプローチを提供する。
速度駆動型Sequential Monte Carlo法を用いて,これらの課題量に対する改良された推定器を提案する。
提案するニューラルフローショートカットサンプリングは,合成データセットと複雑なnボディシステムターゲットの両方において,既存のフローベースニューラルサンプリングよりも経験的に優れている。
論文 参考訳(メタデータ) (2025-02-11T07:55:41Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Latent Consistency Models: Synthesizing High-Resolution Images with
Few-Step Inference [60.32804641276217]
本稿では,LCM(Latent Consistency Models)を提案する。
高品質の768 x 768 24-step LCMは、トレーニングに32A100 GPU時間しかかからない。
また,画像データセットの微調整に適した新しいLCM法であるLCF(Latent Consistency Fine-tuning)についても紹介する。
論文 参考訳(メタデータ) (2023-10-06T17:11:58Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Hessian-Free High-Resolution Nesterov Acceleration for Sampling [55.498092486970364]
最適化のためのNesterovのAccelerated Gradient(NAG)は、有限のステップサイズを使用する場合の連続時間制限(ノイズなしの運動的ランゲヴィン)よりも優れたパフォーマンスを持つ。
本研究は, この現象のサンプリング法について検討し, 離散化により加速勾配に基づくMCMC法が得られる拡散過程を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。