論文の概要: UCD: Unconditional Discriminator Promotes Nash Equilibrium in GANs
- arxiv url: http://arxiv.org/abs/2510.00624v1
- Date: Wed, 01 Oct 2025 07:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.45117
- Title: UCD: Unconditional Discriminator Promotes Nash Equilibrium in GANs
- Title(参考訳): UCD:無条件判別器はGANにおけるナッシュ平衡を促進する
- Authors: Mengfei Xia, Nan Xue, Jiapeng Zhu, Yujun Shen,
- Abstract要約: 特にGAN(Generative Adversarial Network)と拡散モデル蒸留における一段階生成の鍵となる。
本研究では,GANトレーニングにおけるナッシュ均衡の程度を定量的に分析し,D$の条件を入力した冗長なショートカットは有意義な知識抽出を無効にする,と結論付けた。
条件注入なしでより包括的で堅牢な特徴を抽出するために$D$を強制する無条件判別器(UCD)を提案する。
- 参考スコア(独自算出の注目度): 52.32463892292128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training turns out to be the key to one-step generation, especially for Generative Adversarial Network (GAN) and diffusion model distillation. Yet in practice, GAN training hardly converges properly and struggles in mode collapse. In this work, we quantitatively analyze the extent of Nash equilibrium in GAN training, and conclude that redundant shortcuts by inputting condition in $D$ disables meaningful knowledge extraction. We thereby propose to employ an unconditional discriminator (UCD), in which $D$ is enforced to extract more comprehensive and robust features with no condition injection. In this way, $D$ is able to leverage better knowledge to supervise $G$, which promotes Nash equilibrium in GAN literature. Theoretical guarantee on compatibility with vanilla GAN theory indicates that UCD can be implemented in a plug-in manner. Extensive experiments confirm the significant performance improvements with high efficiency. For instance, we achieved \textbf{1.47 FID} on the ImageNet-64 dataset, surpassing StyleGAN-XL and several state-of-the-art one-step diffusion models. The code will be made publicly available.
- Abstract(参考訳): 特にGAN(Generative Adversarial Network)と拡散モデル蒸留における一段階生成の鍵となる。
しかし実際には、GANトレーニングが適切に収束することはほとんどなく、モード崩壊に苦慮している。
本研究では,GANトレーニングにおけるナッシュ均衡の程度を定量的に分析し,D$の条件を入力した冗長なショートカットは有意義な知識抽出を無効にする,と結論付けた。
そこで我々は、条件注入なしでより包括的で堅牢な特徴を抽出するために$D$を強制する無条件判別器(UCD)を提案する。
このようにして、$D$はより優れた知識を活用して$G$を監督し、GAN文学におけるナッシュ均衡を促進する。
バニラGAN理論との互換性に関する理論的保証は、UDDをプラグイン方式で実装可能であることを示している。
大規模な実験により、高い効率で大幅な性能向上が確認された。
たとえば、ImageNet-64データセット上で \textbf{1.47 FID} を達成し、StyleGAN-XL といくつかの最先端の1ステップ拡散モデルを上回った。
コードは公開されます。
関連論文リスト
- Learn to Guide Your Diffusion Model [84.82855046749657]
本研究では,条件付き拡散モデルによる試料の品質向上手法について検討する。
誘導ウェイトは$omega_c,(s,t)$で、条件付き$c$、飾る時間$t$、飾る時間$s$の関数です。
我々は,モデルが報酬関数によって傾いた分布を目標にすることができるように,フレームワークを拡張して報酬付きサンプリングを行う。
論文 参考訳(メタデータ) (2025-10-01T12:21:48Z) - Normalized Attention Guidance: Universal Negative Guidance for Diffusion Models [57.20761595019967]
注意空間にL1をベースとした正規化・精細化を施した,効率的かつトレーニング不要な機構である正規化注意誘導(NAG)を提案する。
NAGは、CFGが忠実性を維持しながら崩壊する効果的な負のガイダンスを復元する。
NAGはアーキテクチャ(UNet、DiT)、サンプリングレシスタンス(複数ステップ、複数ステップ)、モダリティ(イメージ、ビデオ)をまたいで一般化する
論文 参考訳(メタデータ) (2025-05-27T13:30:46Z) - Diffusion Self-Weighted Guidance for Offline Reinforcement Learning [1.7614751781649955]
オフライン強化学習(RL)は、エージェントの歴史的観察を考慮すれば、最適なポリシーを$pi$で回復する。
実際には、$pi$はエージェントの振舞いポリシーの重み付けバージョンとしてモデル化され、エージェントの振舞いに対する批判として働く重み関数$w$を使用する。
D4RLの挑戦的環境における現状と同等の手法を用いて, 玩具のサンプルから自己重み付けガイダンス(SWG)が, 所望の分布からサンプルを生成することを示す。
論文 参考訳(メタデータ) (2025-05-23T20:03:36Z) - Statistical Error Bounds for GANs with Nonlinear Objective Functionals [5.022028859839544]
GAN(Generative Adversarial Network)は、ジェネレータ分布を学習するための教師なし学習手法である。
有限サンプル濃度の不等式という形で、$f$と$Gamma$の一般クラスに対して$(f,Gamma)$-GANsの統計的誤差境界を導出する。
論文 参考訳(メタデータ) (2024-06-24T17:42:03Z) - Demonstration-Regularized RL [39.96273388393764]
専門的な実証から,次数$widetildeO(mathrmPoly(S,A,H)/(varepsilon2 NmathrmE)$および$widetildeO(mathrmPoly(d,H)/(varepsilon2 NmathrmE)$の線形マルコフ決定過程における最適ポリシを同定した。
実演規則化手法が人間のフィードバックからの強化学習に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-26T10:54:47Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。