論文の概要: Variance-Reduction Guidance: Sampling Trajectory Optimization for Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.21792v1
- Date: Mon, 20 Oct 2025 03:24:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.515904
- Title: Variance-Reduction Guidance: Sampling Trajectory Optimization for Diffusion Models
- Title(参考訳): 変数還元誘導:拡散モデルに対する軌道最適化のサンプリング
- Authors: Shifeng Xu, Yanzhu Liu, Adams Wai-Kin Kong,
- Abstract要約: 本稿では,予測誤差を統計的に測定する新しい手法を提案し,この誤差を緩和する可変還元誘導法(VRG)を提案する。
様々なデータセットとベースラインの実験により、VRGは拡散モデルの生成品質を大幅に改善できることが示された。
- 参考スコア(独自算出の注目度): 24.32383295119828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have become emerging generative models. Their sampling process involves multiple steps, and in each step the models predict the noise from a noisy sample. When the models make prediction, the output deviates from the ground truth, and we call such a deviation as \textit{prediction error}. The prediction error accumulates over the sampling process and deteriorates generation quality. This paper introduces a novel technique for statistically measuring the prediction error and proposes the Variance-Reduction Guidance (VRG) method to mitigate this error. VRG does not require model fine-tuning or modification. Given a predefined sampling trajectory, it searches for a new trajectory which has the same number of sampling steps but produces higher quality results. VRG is applicable to both conditional and unconditional generation. Experiments on various datasets and baselines demonstrate that VRG can significantly improve the generation quality of diffusion models. Source code is available at https://github.com/shifengxu/VRG.
- Abstract(参考訳): 拡散モデルは新たな生成モデルになりつつある。
サンプリングプロセスには複数のステップが含まれており、各ステップでノイズをノイズのサンプルから予測する。
モデルが予測を行うと、出力は基底真理から逸脱し、そのような逸脱を \textit{prediction error} と呼ぶ。
予測誤差はサンプリングプロセスに蓄積され、生成品質が劣化する。
本稿では,予測誤差を統計的に測定する新しい手法を提案し,この誤差を軽減するために,可変還元誘導法(VRG)を提案する。
VRGはモデル微調整や修正を必要としない。
予め定義されたサンプリング軌道が与えられた場合、同じサンプリングステップ数を持つ新しい軌道を探索するが、より高品質な結果が得られる。
VRGは条件生成と非条件生成の両方に適用できる。
様々なデータセットとベースラインの実験により、VRGは拡散モデルの生成品質を大幅に改善できることが示された。
ソースコードはhttps://github.com/shifengxu/VRGで入手できる。
関連論文リスト
- Generative Modeling with Bayesian Sample Inference [50.07758840675341]
我々は,反復的なガウス後部推論から新しい生成モデルを導出した。
我々のモデルは、未知のサンプルを反復的に絞り込むために、一連の予測と後続の更新ステップを使用する。
実験では,BFNと近縁な変分拡散モデルの両方に対して,ImageNet32のサンプル品質が向上することが実証された。
論文 参考訳(メタデータ) (2025-02-11T14:27:10Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Informed Correctors for Discrete Diffusion Models [27.295990499157814]
離散拡散モデルに対する予測・相関型サンプリング手法を提案する。
情報補正器は,誤差が少なく,FIDスコアが向上した優れたサンプルを連続的に生成することを示す。
本結果は,離散拡散を用いた高速かつ高忠実な生成のための情報補正器の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Preconditioned Score-based Generative Models [45.66744783988319]
直感的な加速度法はサンプリングの繰り返しを減らし、しかしながら重大な性能劣化を引き起こす。
本稿では,行列プレコンディショニングを利用して上記の問題を緩和する新しいプリコンディショニング拡散サンプリング法を提案する。
PDSはSGMの出力分布を保ち、元のサンプリングプロセスに系統的バイアスを引き起こすリスクはない。
論文 参考訳(メタデータ) (2023-02-13T16:30:53Z) - Refining Deep Generative Models via Discriminator Gradient Flow [18.406499703293566]
判別器グラディエントフロー (DGflow) は, エントロピー規則化されたf-ディバージェンスの勾配流を介して生成したサンプルを改善する新しい手法である。
DGflowは, 様々な生成モデルに対して, 生成したサンプルの品質を著しく向上させることを示す。
論文 参考訳(メタデータ) (2020-12-01T19:10:15Z) - On the Discrepancy between Density Estimation and Sequence Generation [92.70116082182076]
log-likelihoodは、同じファミリー内のモデルを考えるとき、BLEUと非常に相関している。
異なる家族間でのモデルランキングの相関はみられない。
論文 参考訳(メタデータ) (2020-02-17T20:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。