論文の概要: HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.22300v1
- Date: Fri, 26 Sep 2025 13:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.438789
- Title: HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion Models
- Title(参考訳): HiGS: 拡散モデルのプラグアンドプレイ強化のための履歴ガイドサンプリング
- Authors: Seyedmorteza Sadat, Farnood Salehi, Romann M. Weber,
- Abstract要約: 歴史誘導サンプリング(HiGS)と呼ばれる新しい運動量に基づくサンプリング手法を提案する。
HiGSは、最新のモデル予測を各推論ステップに統合することにより、拡散サンプリングの品質と効率を向上させる。
提案手法では,既存の拡散フレームワークとシームレスに統合する。
- 参考スコア(独自算出の注目度): 11.750450439149233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While diffusion models have made remarkable progress in image generation, their outputs can still appear unrealistic and lack fine details, especially when using fewer number of neural function evaluations (NFEs) or lower guidance scales. To address this issue, we propose a novel momentum-based sampling technique, termed history-guided sampling (HiGS), which enhances quality and efficiency of diffusion sampling by integrating recent model predictions into each inference step. Specifically, HiGS leverages the difference between the current prediction and a weighted average of past predictions to steer the sampling process toward more realistic outputs with better details and structure. Our approach introduces practically no additional computation and integrates seamlessly into existing diffusion frameworks, requiring neither extra training nor fine-tuning. Extensive experiments show that HiGS consistently improves image quality across diverse models and architectures and under varying sampling budgets and guidance scales. Moreover, using a pretrained SiT model, HiGS achieves a new state-of-the-art FID of 1.61 for unguided ImageNet generation at 256$\times$256 with only 30 sampling steps (instead of the standard 250). We thus present HiGS as a plug-and-play enhancement to standard diffusion sampling that enables faster generation with higher fidelity.
- Abstract(参考訳): 拡散モデルは画像生成において顕著な進歩を遂げてきたが、その出力は依然として非現実的であり、特にNFE(神経機能評価)の数が少ない場合、詳細を欠いている。
そこで本研究では,近年のモデル予測を各推論ステップに統合することにより,拡散サンプリングの品質と効率を向上させる,履歴誘導サンプリング(HiGS)と呼ばれる新しいモーメントベースのサンプリング手法を提案する。
特に、HiGSは、現在の予測と過去の予測の重み付けされた平均値の違いを利用して、サンプリングプロセスをよりリアルな出力に向けて、より詳細な情報と構造を提供する。
提案手法では,既存の拡散フレームワークとシームレスに統合し,余分なトレーニングや微調整は不要である。
大規模な実験により、HiGSは様々なモデルやアーキテクチャで画像品質を継続的に改善し、様々なサンプリング予算とガイダンス尺度の下で改善している。
さらに、事前訓練されたSiTモデルを使用して、HiGSは、標準250ではなく、わずか30ステップのサンプリングステップで256$\times$256で、unguided ImageNet生成のための1.61の最先端FIDを新たに達成した。
そこで我々はHiGSを,高忠実度で高速な生成を可能にする標準拡散サンプリングのプラグ・アンド・プレイ・エンハンスメントとして提案する。
関連論文リスト
- Self-Guidance: Boosting Flow and Diffusion Generation on Their Own [35.56845917727121]
自己誘導(SG)は、低品質サンプルの生成を抑えることにより、生成画像の品質を著しく向上させることができる。
SGは、異なる雑音レベルにおける元の拡散または流れモデルのサンプリングスコア関数に依存する。
我々は、異なるアーキテクチャでテキスト・ツー・イメージとテキスト・ツー・ビデオ生成に関する広範な実験を行う。
論文 参考訳(メタデータ) (2024-12-08T06:32:27Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - CADS: Unleashing the Diversity of Diffusion Models through Condition-Annealed Sampling [27.795088366122297]
Condition-Annealed Diffusion Sampler (CADS) は任意の事前学習モデルとサンプリングアルゴリズムで使用することができる。
本研究では,様々な条件生成タスクにおける拡散モデルの多様性を向上することを示す。
論文 参考訳(メタデータ) (2023-10-26T12:27:56Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Preconditioned Score-based Generative Models [45.66744783988319]
直感的な加速度法はサンプリングの繰り返しを減らし、しかしながら重大な性能劣化を引き起こす。
本稿では,行列プレコンディショニングを利用して上記の問題を緩和する新しいプリコンディショニング拡散サンプリング法を提案する。
PDSはSGMの出力分布を保ち、元のサンプリングプロセスに系統的バイアスを引き起こすリスクはない。
論文 参考訳(メタデータ) (2023-02-13T16:30:53Z) - Improved Techniques for Training Score-Based Generative Models [104.20217659157701]
本研究では,高次元空間におけるスコアモデルからの学習とサンプリングに関する新しい理論的解析を行う。
スコアベースの生成モデルを前例のない解像度で画像に拡張することができる。
我々のスコアベースモデルは、様々な画像データセットで最良クラスGANに匹敵する高忠実度サンプルを生成することができる。
論文 参考訳(メタデータ) (2020-06-16T09:17:17Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。