論文の概要: GraN-GAN: Piecewise Gradient Normalization for Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2111.03162v1
- Date: Thu, 4 Nov 2021 21:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 14:23:00.275338
- Title: GraN-GAN: Piecewise Gradient Normalization for Generative Adversarial
Networks
- Title(参考訳): GraN-GAN: 生成共振器ネットワークのための最適勾配正規化
- Authors: Vineeth S. Bhaskara, Tristan Aumentado-Armstrong, Allan Jepson, Alex
Levinshtein
- Abstract要約: GAN(Agenerative Adversarial Network)は、主に識別器(または批評家)における一方向線形活性化関数を使用する。
入力空間におけるK-Lipschitz制約を一括的に保証する新しい入力依存正規化法であるグラディエント正規化(GraN)を提案する。
GraNは個々のネットワーク層での処理を制限せず、勾配のペナルティとは異なり、ほぼ至る所でピースワイズ・リプシッツの制約を厳格に強制する。
- 参考スコア(独自算出の注目度): 2.3666095711348363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern generative adversarial networks (GANs) predominantly use piecewise
linear activation functions in discriminators (or critics), including ReLU and
LeakyReLU. Such models learn piecewise linear mappings, where each piece
handles a subset of the input space, and the gradients per subset are piecewise
constant. Under such a class of discriminator (or critic) functions, we present
Gradient Normalization (GraN), a novel input-dependent normalization method,
which guarantees a piecewise K-Lipschitz constraint in the input space. In
contrast to spectral normalization, GraN does not constrain processing at the
individual network layers, and, unlike gradient penalties, strictly enforces a
piecewise Lipschitz constraint almost everywhere. Empirically, we demonstrate
improved image generation performance across multiple datasets (incl.
CIFAR-10/100, STL-10, LSUN bedrooms, and CelebA), GAN loss functions, and
metrics. Further, we analyze altering the often untuned Lipschitz constant K in
several standard GANs, not only attaining significant performance gains, but
also finding connections between K and training dynamics, particularly in
low-gradient loss plateaus, with the common Adam optimizer.
- Abstract(参考訳): 現代のGAN(Generative Adversarial Network)は、ReLUやLeakyReLUなど、識別器(または批評家)において、断片的に線形なアクティベーション機能を利用する。
このようなモデルは、各ピースが入力空間のサブセットを処理し、各サブセットごとの勾配が区分的に定数である、区分的な線形写像を学習する。
このような差別化(あるいは批判)関数のクラスの下では、入力空間におけるK-Lipschitz制約を断片的に保証する新しい入力依存正規化法であるグラディエント正規化(GraN)を提案する。
スペクトル正規化とは対照的に、GraNは個々のネットワーク層での処理を制限せず、勾配のペナルティとは異なり、ほぼ至る所でピースワイズ・リプシッツの制約を厳格に強制する。
実験により、複数のデータセット(CIFAR-10/100、STL-10、LSUN寝室、CelebAを含む)、GAN損失関数、メトリクス)における画像生成性能の改善を実証した。
さらに、いくつかの標準GANにおいて、しばしば修正されないリプシッツ定数Kの変化を解析し、大きな性能向上を達成するだけでなく、Kとトレーニングダイナミクス、特に低次損失プラトーにおいて、一般的なAdamオプティマイザとの接続も見つける。
関連論文リスト
- CHAIN: Enhancing Generalization in Data-Efficient GANs via lipsCHitz continuity constrAIned Normalization [36.20084231028338]
GAN(Generative Adversarial Networks)は画像生成を著しく進歩させるが、その性能は豊富なトレーニングデータに大きく依存する。
限られたデータを持つシナリオでは、GANは差別者の過度な適合と不安定なトレーニングに苦労することが多い。
我々は、従来の中心ステップをゼロ平均正規化に置き換え、スケーリングステップでリプシッツ連続性制約を統合するCHAINを提案する。
論文 参考訳(メタデータ) (2024-03-31T01:41:36Z) - The Implicit Bias of Batch Normalization in Linear Models and Two-layer
Linear Convolutional Neural Networks [117.93273337740442]
勾配勾配勾配は、exp(-Omega(log2 t))$収束率でトレーニングデータ上の一様マージン分類器に収束することを示す。
また、バッチ正規化はパッチワイドの均一なマージンに対して暗黙の偏りを持つことを示す。
論文 参考訳(メタデータ) (2023-06-20T16:58:00Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Gradient descent provably escapes saddle points in the training of shallow ReLU networks [6.458742319938318]
我々は、関連する力学系の結果の変種、中心安定な多様体定理を証明し、そこでは正規性要求のいくつかを緩和する。
浅部ReLUおよび漏洩ReLUネットワークに対する正方積分損失関数の臨界点の詳細な検討に基づいて、勾配降下がほとんどのサドル点を下降させることを示す。
論文 参考訳(メタデータ) (2022-08-03T14:08:52Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Sparsest Univariate Learning Models Under Lipschitz Constraint [31.28451181040038]
一次元回帰問題に対する連続領域定式化を提案する。
リプシッツ定数をユーザ定義上界を用いて明示的に制御する。
いずれの問題も、連続的かつ断片的線形なグローバル最小化を許容していることが示される。
論文 参考訳(メタデータ) (2021-12-27T07:03:43Z) - Learning Quantized Neural Nets by Coarse Gradient Method for Non-linear
Classification [3.158346511479111]
特定の単調性を持つSTEのクラスを提案し、量子化されたアクティベーション関数を持つ2層ネットワークのトレーニングへの応用について検討する。
提案したSTEに対して,対応する粗度勾配法が大域最小値に収束することを示し,性能保証を確立する。
論文 参考訳(メタデータ) (2020-11-23T07:50:09Z) - Implicit Bias in Deep Linear Classification: Initialization Scale vs
Training Accuracy [71.25689267025244]
移行がスケールとトレーニング損失の最小化の関係によってどのように制御されるかを示す。
以上の結果から,勾配降下の限界挙動は,ばかげた訓練精度でのみ引き起こされることが示唆された。
論文 参考訳(メタデータ) (2020-07-13T23:49:53Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。