論文の概要: GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver
- arxiv url: http://arxiv.org/abs/2510.17699v1
- Date: Mon, 20 Oct 2025 16:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.519366
- Title: GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver
- Title(参考訳): GAS:一般化逆解法による拡散オーダの離散化の改善
- Authors: Aleksandr Oganov, Ilya Bykov, Eva Neudachina, Mishan Aliev, Alexander Tolmachev, Alexander Sidorov, Aleksandr Zuev, Andrey Okhotin, Denis Rakitin, Aibek Alanov,
- Abstract要約: ODEサンプルの単純なパラメータ化を導入し、追加のトレーニングトリックを必要とせず、既存のアプローチよりも品質が向上する。
さらに, 本来の蒸留損失と逆行訓練を組み合わせることで, 人工物が軽減され, 細部忠実度が向上する。
- 参考スコア(独自算出の注目度): 120.67680383929081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While diffusion models achieve state-of-the-art generation quality, they still suffer from computationally expensive sampling. Recent works address this issue with gradient-based optimization methods that distill a few-step ODE diffusion solver from the full sampling process, reducing the number of function evaluations from dozens to just a few. However, these approaches often rely on intricate training techniques and do not explicitly focus on preserving fine-grained details. In this paper, we introduce the Generalized Solver: a simple parameterization of the ODE sampler that does not require additional training tricks and improves quality over existing approaches. We further combine the original distillation loss with adversarial training, which mitigates artifacts and enhances detail fidelity. We call the resulting method the Generalized Adversarial Solver and demonstrate its superior performance compared to existing solver training methods under similar resource constraints. Code is available at https://github.com/3145tttt/GAS.
- Abstract(参考訳): 拡散モデルは最先端の世代品質を達成するが、それでも計算コストのかかるサンプリングに悩まされている。
近年の研究では, 数段階のODE拡散解法を全サンプリングプロセスから抽出し, 数十からわずかまで関数評価の回数を削減し, 勾配に基づく最適化手法でこの問題に対処している。
しかしながら、これらのアプローチは、しばしば複雑なトレーニング技術に依存し、きめ細かい詳細を保存することに明示的に重点を置いていない。
本稿では,ODE サンプルの簡易パラメータ化手法である Generalized Solver について紹介する。
さらに, 本来の蒸留損失と逆行訓練を組み合わせることで, 人工物が軽減され, 細部忠実度が向上する。
得られた手法を一般化逆ソルバーと呼び、類似資源制約下での既存の解法学習法と比較して優れた性能を示す。
コードはhttps://github.com/3145ttt/GAS.comで入手できる。
関連論文リスト
- Distilling Parallel Gradients for Fast ODE Solvers of Diffusion Models [53.087070073434845]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低レイテンシの予算で画像品質が劣化することが多い。
本稿では、各ODEステップに複数の並列勾配評価を組み込むことで、トランケーションエラーを軽減する新しいODEソルバであるEnsemble Parallel Direction Solutionrを提案する。
論文 参考訳(メタデータ) (2025-07-20T03:08:06Z) - TADA: Improved Diffusion Sampling with Training-free Augmented Dynamics [40.75121059939763]
我々は,ImageNet512 上で比較 FID を比較対象とするアートソルバの現在の状態よりも最大 186% 以上高速な新しいサンプリング手法を提案する。
提案手法の鍵は,高次元初期雑音を用いて,より詳細なサンプルを生成することである。
論文 参考訳(メタデータ) (2025-06-26T20:30:27Z) - DGSolver: Diffusion Generalist Solver with Universal Posterior Sampling for Image Restoration [49.16449955997501]
bfDGrは、普遍的な後続サンプリングを持つ拡散解法である。
コードとモデルはhttps://github.com/MiliLab/DGr.comから入手できる。
論文 参考訳(メタデータ) (2025-04-30T10:12:48Z) - Fast Samplers for Inverse Problems in Iterative Refinement Models [19.099632445326826]
逆問題に対する効率的なサンプル作成のためのプラグイン・アンド・プレイフレームワークを提案する。
提案手法は,5段階の条件付きサンプリングステップで高品質なサンプルを生成でき,20~1000段の基準ラインよりも優れる。
論文 参考訳(メタデータ) (2024-05-27T21:50:16Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Distilling ODE Solvers of Diffusion Models into Smaller Steps [32.49916706943228]
本稿では, ODEソルバの定式化を基礎とした蒸留法であるDistilled-ODE solverを紹介する。
本手法は学習自由サンプリングと学習ベースサンプリングの両方の長所をシームレスに統合する。
従来の蒸留法と比較して計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2023-09-28T13:12:18Z) - Improving Diffusion Models for Inverse Problems using Manifold Constraints [55.91148172752894]
我々は,現在の解法がデータ多様体からサンプルパスを逸脱し,エラーが蓄積することを示す。
この問題に対処するため、多様体の制約に着想を得た追加の補正項を提案する。
本手法は理論上も経験上も従来の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-02T09:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。