論文の概要: Adaptive Guidance: Training-free Acceleration of Conditional Diffusion
Models
- arxiv url: http://arxiv.org/abs/2312.12487v1
- Date: Tue, 19 Dec 2023 17:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 18:14:32.171213
- Title: Adaptive Guidance: Training-free Acceleration of Conditional Diffusion
Models
- Title(参考訳): アダプティブガイダンス:条件拡散モデルのトレーニングフリーアクセラレーション
- Authors: Angela Castillo, Jonas Kohler, Juan C. P\'erez, Juan Pablo P\'erez,
Albert Pumarola, Bernard Ghanem, Pablo Arbel\'aez, Ali Thabet
- Abstract要約: 適応誘導 (AG) は計算自由誘導 (CFG) の効率的な変種である
AGはCFGの画質を25%低下させながら保存する。
LinearAG" はベースラインモデルから逸脱するコストでさらに安価な推論を提供する。
- 参考スコア(独自算出の注目度): 44.58960475893552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a comprehensive study on the role of Classifier-Free
Guidance (CFG) in text-conditioned diffusion models from the perspective of
inference efficiency. In particular, we relax the default choice of applying
CFG in all diffusion steps and instead search for efficient guidance policies.
We formulate the discovery of such policies in the differentiable Neural
Architecture Search framework. Our findings suggest that the denoising steps
proposed by CFG become increasingly aligned with simple conditional steps,
which renders the extra neural network evaluation of CFG redundant, especially
in the second half of the denoising process. Building upon this insight, we
propose "Adaptive Guidance" (AG), an efficient variant of CFG, that adaptively
omits network evaluations when the denoising process displays convergence. Our
experiments demonstrate that AG preserves CFG's image quality while reducing
computation by 25%. Thus, AG constitutes a plug-and-play alternative to
Guidance Distillation, achieving 50% of the speed-ups of the latter while being
training-free and retaining the capacity to handle negative prompts. Finally,
we uncover further redundancies of CFG in the first half of the diffusion
process, showing that entire neural function evaluations can be replaced by
simple affine transformations of past score estimates. This method, termed
LinearAG, offers even cheaper inference at the cost of deviating from the
baseline model. Our findings provide insights into the efficiency of the
conditional denoising process that contribute to more practical and swift
deployment of text-conditioned diffusion models.
- Abstract(参考訳): 本稿では,テキスト条件付き拡散モデルにおける分類自由誘導(CFG)の役割を推論効率の観点から総合的に検討する。
特に、全ての拡散ステップにCFGを適用するというデフォルトの選択を緩和し、代わりに効率的なガイダンスポリシーを探索する。
我々は、そのようなポリシーの発見を、微分可能なニューラルネットワーク検索フレームワークで定式化する。
以上の結果から,CFGが提案するデノナイジングステップは,特にデノナイジングプロセスの後半において,CFGの余剰ニューラルネットワーク評価を冗長にする単純な条件付きステップと整合する傾向が示唆された。
この知見に基づいて, CFG の効率的な変種である "Adaptive Guidance" (AG) を提案する。
実験の結果,AG は CFG の画質を 25% 削減しながら保存することを示した。
したがって、AGはガイダンス蒸留のプラグアンドプレイ代替品を構成し、トレーニング不要で負のプロンプトを扱う能力を維持しながら、後者のスピードアップの50%を達成している。
最後に、拡散過程の前半におけるcfgのさらなる冗長性を明らかにし、神経機能評価全体を過去の推定値の単純なアフィン変換に置き換えることができることを示した。
この手法はLinearAGと呼ばれ、ベースラインモデルから逸脱するコストでさらに安価な推論を提供する。
本研究は,テキスト条件付き拡散モデルのより実用的かつ迅速な展開に寄与する条件付き弁別プロセスの効率に関する知見を提供する。
関連論文リスト
- Contrastive CFG: Improving CFG in Diffusion Models by Contrasting Positive and Negative Concepts [55.298031232672734]
As-Free Guidance (CFG) は条件拡散モデルサンプリングに有効であることが証明された。
対照的な損失を用いた負のCFG誘導を強化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T03:29:27Z) - Rectified Diffusion Guidance for Conditional Generation [62.00207951161297]
CFGの背後にある理論を再検討し、組合せ係数の不適切な構成(すなわち、広く使われている和対1バージョン)が生成分布の期待シフトをもたらすことを厳密に確認する。
本稿では,誘導係数を緩和したReCFGを提案する。
このようにして、修正された係数は観測されたデータをトラバースすることで容易に事前計算でき、サンプリング速度はほとんど影響を受けない。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Eliminating Oversaturation and Artifacts of High Guidance Scales in Diffusion Models [27.640009920058187]
CFG更新ルールを再検討し、この問題に対処するための修正を導入する。
過飽和を伴わない高品質な世代を実現するために並列成分の低重み付けを提案する。
また、この知見に基づいて、CFG更新ルールに対する新しい再スケーリングモーメント手法も導入する。
論文 参考訳(メタデータ) (2024-10-03T12:06:29Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Unsupervised learning of disentangled representations in deep restricted
kernel machines with orthogonality constraints [15.296955630621566]
Constr-DRKMは、非教師なしデータ表現の学習のためのディープカーネル手法である。
本研究では,不整合特徴学習における提案手法の有効性を定量的に評価する。
論文 参考訳(メタデータ) (2020-11-25T11:40:10Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。