論文の概要: Hierarchical Schedule Optimization for Fast and Robust Diffusion Model Sampling
- arxiv url: http://arxiv.org/abs/2511.11688v1
- Date: Wed, 12 Nov 2025 08:57:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.996038
- Title: Hierarchical Schedule Optimization for Fast and Robust Diffusion Model Sampling
- Title(参考訳): 高速・ロバスト拡散モデルサンプリングのための階層型スケジュール最適化
- Authors: Aihua Zhu, Rui Su, Qinglin Zhao, Li Feng, Meng Shen, Shibo He,
- Abstract要約: 本稿では,HSO(Hierarchical-Schedule-r)を提案する。
HSOは、極低NFE体制におけるトレーニング不要サンプリングのための新しい最先端技術を設定している。
例えば、5 の NFE を持つ HSO は、安定拡散 v2.1 の LAION-Aesthetics において 11.94 の顕著な FID を達成する。
- 参考スコア(独自算出の注目度): 19.936149710230275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion probabilistic models have set a new standard for generative fidelity but are hindered by a slow iterative sampling process. A powerful training-free strategy to accelerate this process is Schedule Optimization, which aims to find an optimal distribution of timesteps for a fixed and small Number of Function Evaluations (NFE) to maximize sample quality. To this end, a successful schedule optimization method must adhere to four core principles: effectiveness, adaptivity, practical robustness, and computational efficiency. However, existing paradigms struggle to satisfy these principles simultaneously, motivating the need for a more advanced solution. To overcome these limitations, we propose the Hierarchical-Schedule-Optimizer (HSO), a novel and efficient bi-level optimization framework. HSO reframes the search for a globally optimal schedule into a more tractable problem by iteratively alternating between two synergistic levels: an upper-level global search for an optimal initialization strategy and a lower-level local optimization for schedule refinement. This process is guided by two key innovations: the Midpoint Error Proxy (MEP), a solver-agnostic and numerically stable objective for effective local optimization, and the Spacing-Penalized Fitness (SPF) function, which ensures practical robustness by penalizing pathologically close timesteps. Extensive experiments show that HSO sets a new state-of-the-art for training-free sampling in the extremely low-NFE regime. For instance, with an NFE of just 5, HSO achieves a remarkable FID of 11.94 on LAION-Aesthetics with Stable Diffusion v2.1. Crucially, this level of performance is attained not through costly retraining, but with a one-time optimization cost of less than 8 seconds, presenting a highly practical and efficient paradigm for diffusion model acceleration.
- Abstract(参考訳): 拡散確率モデルでは、生成的忠実性の新たな標準が設定されているが、遅い反復サンプリングプロセスによって妨げられている。
このプロセスを加速するための強力なトレーニングフリー戦略はスケジュール最適化(Schedule Optimization)である。これは、サンプルの品質を最大化するために、固定および少数の機能評価(NFE)のためのタイムステップの最適分布を見つけることを目的としている。
この目的のために、成功したスケジュール最適化手法は、有効性、適応性、実用的堅牢性、計算効率の4つの基本原理に従わなければならない。
しかし、既存のパラダイムはこれらの原則を同時に満たすのに苦労し、より高度なソリューションの必要性を動機付けています。
これらの制限を克服するために,新しい2レベル最適化フレームワークである階層型スケジューリング最適化(HSO)を提案する。
HSOは、最適初期化戦略の上位レベルグローバルサーチと、スケジュール改善のための下位レベルローカル最適化の2つの相乗的レベルを反復的に交互に交互に交互に行うことにより、グローバルな最適スケジュールの探索をより難解な問題に再編成する。
このプロセスは2つの重要な革新によって導かれる: ミドルポイント・エラープロキシ(MEP)、効果的な局所最適化のための解法に依存しない数値的に安定な目標、そしてスペーシング・ペナライズド・フィタネス(SPF)関数。
大規模な実験により、HSOは極低NFE体制下でのトレーニング不要サンプリングのための新しい最先端技術を構築している。
例えば、5 の NFE を持つ HSO は、安定拡散 v2.1 の LAION-Aesthetics において 11.94 の顕著な FID を達成する。
重要なことに、このレベルの性能はコストのかかる再訓練によって達成されるのではなく、1回の最適化コストが8秒未満で達成され、拡散モデル加速のための非常に実用的で効率的なパラダイムが提示される。
関連論文リスト
- Slice-Wise Initial State Optimization to Improve Cost and Accuracy of the VQE on Lattice Models [0.0]
本稿では,適応型および物理インスピレーション型アンザッツ設計を組み合わせた変分量子固有解器(VQE)の最適化手法を提案する。
この準力学的アプローチは、演算子選択のオーバーヘッドを回避しつつ、表現性とハードウェア効率を保っている。
最大20キュービットの1次元および2次元ハイゼンベルクおよびハバードモデルのベンチマークでは、固定層VQEと比較して、忠実度の改善、機能評価の削減、あるいはその両方が示されている。
論文 参考訳(メタデータ) (2025-09-16T12:52:23Z) - TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization [17.694852175354555]
目的値を介して解の選好を利用する訓練パラダイムであるBOPO(Best-anchored and Objective-Guided Preference Optimization)を提案する。
ジョブショップ問題(JSP)、トラベルセールスマン問題(TSP)、フレキシブルジョブショップスケジューリング問題(FJSP)の実験は、BOPOが最先端のニューラルメソッドより優れていることを示している。
論文 参考訳(メタデータ) (2025-03-10T17:45:30Z) - Fast T2T: Optimization Consistency Speeds Up Diffusion-Based Training-to-Testing Solving for Combinatorial Optimization [83.65278205301576]
雑音レベルから与えられたインスタンスの最適解への直接写像を学習し、最小限のショットで高品質な生成を容易にすることを提案する。
これは、サンプル間の差を最小限に抑える最適化一貫性トレーニングプロトコルによって達成される。
The Traveling Salesman Problem (TSP) と Maximal Independent Set (MIS) は、ソリューションの品質と効率の両方に関して、Fast T2Tの優位性を実証している。
論文 参考訳(メタデータ) (2025-02-05T07:13:43Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - Fast Two-Time-Scale Stochastic Gradient Method with Applications in Reinforcement Learning [5.325297567945828]
本稿では,従来の手法よりもはるかに高速な収束を実現する2段階最適化手法を提案する。
提案手法は,既存の最先端技術に匹敵する,あるいは適合する新しいオンラインサンプルベース手法に特化していることを示す。
論文 参考訳(メタデータ) (2024-05-15T19:03:08Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。