論文の概要: NitroFusion: High-Fidelity Single-Step Diffusion through Dynamic Adversarial Training
- arxiv url: http://arxiv.org/abs/2412.02030v1
- Date: Mon, 02 Dec 2024 23:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:42.757198
- Title: NitroFusion: High-Fidelity Single-Step Diffusion through Dynamic Adversarial Training
- Title(参考訳): NitroFusion:動的対向訓練による高密度単一ステップ拡散
- Authors: Dar-Yen Chen, Hmrishav Bandyopadhyay, Kai Zou, Yi-Zhe Song,
- Abstract要約: 我々は,動的対向フレームワークを通じて高品質な生成を実現する単一ステップ拡散に対する基本的に異なるアプローチであるNitroFusionを紹介した。
本フレームワークは, (i) 動的識別器プールと, 生成品質向上のための特殊識別器グループ, (ii) 識別器過適合を防止する戦略的リフレッシュ機構, (iii) マルチスケール品質評価のためのグローバルな識別器ヘッドを組み合わせる。
- 参考スコア(独自算出の注目度): 57.20761595019967
- License:
- Abstract: We introduce NitroFusion, a fundamentally different approach to single-step diffusion that achieves high-quality generation through a dynamic adversarial framework. While one-step methods offer dramatic speed advantages, they typically suffer from quality degradation compared to their multi-step counterparts. Just as a panel of art critics provides comprehensive feedback by specializing in different aspects like composition, color, and technique, our approach maintains a large pool of specialized discriminator heads that collectively guide the generation process. Each discriminator group develops expertise in specific quality aspects at different noise levels, providing diverse feedback that enables high-fidelity one-step generation. Our framework combines: (i) a dynamic discriminator pool with specialized discriminator groups to improve generation quality, (ii) strategic refresh mechanisms to prevent discriminator overfitting, and (iii) global-local discriminator heads for multi-scale quality assessment, and unconditional/conditional training for balanced generation. Additionally, our framework uniquely supports flexible deployment through bottom-up refinement, allowing users to dynamically choose between 1-4 denoising steps with the same model for direct quality-speed trade-offs. Through comprehensive experiments, we demonstrate that NitroFusion significantly outperforms existing single-step methods across multiple evaluation metrics, particularly excelling in preserving fine details and global consistency.
- Abstract(参考訳): 我々は,動的対向フレームワークを通じて高品質な生成を実現する単一ステップ拡散に対する基本的に異なるアプローチであるNitroFusionを紹介した。
ワンステップ方式は劇的な速度優位性を提供するが、一般的にはマルチステップ方式に比べて品質劣化に悩まされる。
美術評論家のパネルが、構成、色、技法などの異なる側面を専門にすることで、包括的なフィードバックを提供するのと同じように、我々のアプローチは、生成過程を一括して導く、専門的な差別者の大きなプールを維持している。
各識別器グループは、異なるノイズレベルにおける特定の品質面の専門知識を開発し、高忠実なワンステップ生成を可能にする多様なフィードバックを提供する。
私たちのフレームワークは次の2つを組み合わせています。
i) 生成品質を向上させるため、特定識別器群を有する動的識別器プール。
二 差別者の過度な適合を防止するための戦略的リフレッシュ機構及び
三 マルチスケール品質評価のためのグローバルローカル判別器ヘッド、バランス世代のための無条件/条件訓練。
さらに当社のフレームワークはボトムアップの改良を通じてフレキシブルなデプロイメントをサポートしています。
総合的な実験を通じて、NitroFusionは複数の評価指標で既存のシングルステップメソッドよりも大幅に優れており、特に細部やグローバルな一貫性の維持に優れています。
関連論文リスト
- Imagine Flash: Accelerating Emu Diffusion Models with Backward Distillation [18.371344440413353]
本研究では,1段階から3段階の高忠実度,多種多様な試料生成を可能にする新しい蒸留フレームワークを提案する。
提案手法は, (i) 学習者自身の後方軌跡を校正することで, トレーニングと推論の相違を緩和する後方蒸留, (ii) 知識伝達を動的に適応させるシフト型再構成損失, (iii) サンプル品質を高める推論時間技術であるノイズ補正の3つの重要な要素から構成される。
論文 参考訳(メタデータ) (2024-05-08T17:15:18Z) - Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - Reinforcement Learning as a Catalyst for Robust and Fair Federated
Learning: Deciphering the Dynamics of Client Contributions [6.318638597489423]
Reinforcement Federated Learning (RFL)は、深い強化学習を活用して、集約中のクライアントコントリビューションを適応的に最適化する新しいフレームワークである。
堅牢性に関しては、RFLは同等の公平性を維持しつつ、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - FedShift: Tackling Dual Heterogeneity Problem of Federated Learning via
Weight Shift Aggregation [6.3842184099869295]
Federated Learning(FL)は、データプライバシの保護に重点を置いて、マシンラーニングモデルをトレーニングするための魅力的な方法を提供する。
FLにおいて認識された課題であるシステム不均一性と統計的不均一性の存在は、クライアントハードウェア、ネットワーク、データセット分布の多様性から生じる。
本稿では,2つのヘテロジニアスシナリオにおいて,トレーニング速度とモデルの精度を両立させる新しいアルゴリズムであるFedShiftを紹介する。
論文 参考訳(メタデータ) (2024-02-02T00:03:51Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - Mixture of Robust Experts (MoRE): A Flexible Defense Against Multiple
Perturbations [33.868833849116044]
MoRE(Mixture of Robust Experts)アプローチは、幅広い堅牢な専門家と優れたパフォーマンスの柔軟な統合を可能にする。
本研究では,ゲーティング機構を用いて,特定の摂動タイプに対処するために,あるいは通常はクリーンデータの正確性を高めるために訓練された専門家ネットワークの組を組み立てる。
論文 参考訳(メタデータ) (2021-04-21T15:27:07Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。