論文の概要: Noise Consistency Training: A Native Approach for One-Step Generator in Learning Additional Controls
- arxiv url: http://arxiv.org/abs/2506.19741v1
- Date: Tue, 24 Jun 2025 15:58:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.70976
- Title: Noise Consistency Training: A Native Approach for One-Step Generator in Learning Additional Controls
- Title(参考訳): 騒音の整合性トレーニング: 付加制御学習におけるワンステップジェネレータのネイティブアプローチ
- Authors: Yihong Luo, Shuchen Xue, Tianyang Hu, Jing Tang,
- Abstract要約: ワンステップジェネレータは、優れた生成品質と計算効率を提供する。
しかし、これらを新しい制御条件に適応させることは、大きな課題となる。
本稿では,新しい制御信号を事前学習したワンステップジェネレータに直接統合するための,新しい軽量なアプローチを提案する。
- 参考スコア(独自算出の注目度): 6.343348427620997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pursuit of efficient and controllable high-quality content generation remains a central challenge in artificial intelligence-generated content (AIGC). While one-step generators, enabled by diffusion distillation techniques, offer excellent generation quality and computational efficiency, adapting them to new control conditions--such as structural constraints, semantic guidelines, or external inputs--poses a significant challenge. Conventional approaches often necessitate computationally expensive modifications to the base model and subsequent diffusion distillation. This paper introduces Noise Consistency Training (NCT), a novel and lightweight approach to directly integrate new control signals into pre-trained one-step generators without requiring access to original training images or retraining the base diffusion model. NCT operates by introducing an adapter module and employs a noise consistency loss in the noise space of the generator. This loss aligns the adapted model's generation behavior across noises that are conditionally dependent to varying degrees, implicitly guiding it to adhere to the new control. Theoretically, this training objective can be understood as minimizing the distributional distance between the adapted generator and the conditional distribution induced by the new conditions. NCT is modular, data-efficient, and easily deployable, relying only on the pre-trained one-step generator and a control signal model. Extensive experiments demonstrate that NCT achieves state-of-the-art controllable generation in a single forward pass, surpassing existing multi-step and distillation-based methods in both generation quality and computational efficiency. Code is available at https://github.com/Luo-Yihong/NCT
- Abstract(参考訳): 効率的かつ制御可能な高品質なコンテンツ生成の追求は、人工知能生成コンテンツ(AIGC)において依然として中心的な課題である。
拡散蒸留技術によって実現されたワンステップジェネレータは、優れた生成品質と計算効率を提供し、構造的制約、セマンティックガイドライン、外部入力など新しい制御条件に適応する。
従来のアプローチでは、基礎モデルとその後の拡散蒸留に計算的に高価な修正を必要とすることが多い。
本稿では,従来のトレーニング画像へのアクセスやベース拡散モデルの再学習を必要とせずに,新しい制御信号を事前学習したワンステップジェネレータに直接統合するための,新しい軽量なアプローチであるノイズ一貫性トレーニング(NCT)を紹介する。
NCTは、アダプタモジュールを導入して動作し、ジェネレータのノイズ空間におけるノイズ一貫性損失を利用する。
この損失は、異なる次数に依存する条件付きノイズに対して適応モデルの生成挙動を一致させ、新しい制御に従うように暗黙的に導く。
理論的には、このトレーニングの目的は、適応発電機と新しい条件によって誘導される条件分布との間の分布距離を最小化するものとして理解することができる。
NCTはモジュールで、データ効率が高く、容易にデプロイでき、事前訓練されたワンステップジェネレータと制御信号モデルにのみ依存する。
大規模実験により, NCTは, 生成品質と計算効率の両面において, 既存の多段階および蒸留法を超越して, 単一の前方通過で最先端の制御可能生成を実現することが示された。
コードはhttps://github.com/Luo-Yihong/NCTで入手できる。
関連論文リスト
- Adding Additional Control to One-Step Diffusion with Joint Distribution Matching [58.37264951734603]
JDMは、画像-条件関節分布間の逆KL分散を最小化する新しいアプローチである。
トラクタブルな上限を導出することにより、JDMは条件学習から忠実度学習を分離する。
この非対称蒸留方式により,一段階の生徒が教師モデルに未知の制御を処理できるようになる。
論文 参考訳(メタデータ) (2025-03-09T15:06:50Z) - Improving Consistency Models with Generator-Augmented Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,一貫性モデルから得られたノイズデータを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - Unsupervised learning based end-to-end delayless generative fixed-filter
active noise control [22.809445468752262]
遅延のないノイズ制御は、我々の初期の生成固定フィルタアクティブノイズ制御(GFANC)フレームワークによって実現されている。
コプロセッサの1次元畳み込みニューラルネットワーク(1D CNN)は、ラベル付きノイズデータセットを使用した初期トレーニングを必要とする。
本稿では,1次元CNNトレーニングプロセスを簡素化し,その実用性を高めるために,教師なしGFANCアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-08T06:14:12Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。