論文の概要: Complexity Controlled Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2011.10223v1
- Date: Fri, 20 Nov 2020 05:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:22:38.810271
- Title: Complexity Controlled Generative Adversarial Networks
- Title(参考訳): 複雑度制御による生成逆数ネットワーク
- Authors: Himanshu Pant, Jayadeva and Sumit Soman
- Abstract要約: 低複雑性ニューラルネットワーク(LCNN)を用いて,低複雑性のモデルを学習するための代替アーキテクチャを提案する。
LCNN損失関数をGAN、DCGAN(Deep Convolutional GAN)、SNGAN(Spectral Normalized GAN)に組み込む。
様々な大規模なベンチマーク画像データセットにおいて,提案したモデルを用いることで,モード崩壊の問題を回避しつつ,安定したトレーニングを行うことができることを示す。
- 参考スコア(独自算出の注目度): 3.1798318618973362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the issues faced in training Generative Adversarial Nets (GANs) and
their variants is the problem of mode collapse, wherein the training stability
in terms of the generative loss increases as more training data is used. In
this paper, we propose an alternative architecture via the Low-Complexity
Neural Network (LCNN), which attempts to learn models with low complexity. The
motivation is that controlling model complexity leads to models that do not
overfit the training data. We incorporate the LCNN loss function for GANs, Deep
Convolutional GANs (DCGANs) and Spectral Normalized GANs (SNGANs), in order to
develop hybrid architectures called the LCNN-GAN, LCNN-DCGAN and LCNN-SNGAN
respectively. On various large benchmark image datasets, we show that the use
of our proposed models results in stable training while avoiding the problem of
mode collapse, resulting in better training stability. We also show how the
learning behavior can be controlled by a hyperparameter in the LCNN functional,
which also provides an improved inception score.
- Abstract(参考訳): gans(generative adversarial nets)のトレーニングで直面する問題の一つは、より多くのトレーニングデータを使用するにつれて生成損失の観点からのトレーニング安定性が増加するモード崩壊の問題である。
本稿では,低複雑性ニューラルネットワーク (LCNN) を用いて,低複雑性のモデルを学習するための代替アーキテクチャを提案する。
モチベーションは、モデルの複雑さを制御することが、トレーニングデータに過剰に適合しないモデルにつながることです。
我々は、LCNN-GAN、LCNN-DCGAN、LCNN-SNGANと呼ばれるハイブリッドアーキテクチャを開発するために、LCNN損失関数をGAN、DCGAN(Deep Convolutional GAN)、SNGAN(Spectral Normalized GAN)に組み込んだ。
様々な大規模なベンチマーク画像データセットにおいて,提案モデルを用いることで,モード崩壊の問題を回避し,トレーニングの安定性が向上することを示す。
また,学習行動がLCNN関数のハイパーパラメータによって制御可能であることを示し,学習開始スコアも向上した。
関連論文リスト
- Adaptive Growth: Real-time CNN Layer Expansion [0.0]
本研究では,データ入力に基づいて,畳み込みニューラルネットワーク(CNN)の畳み込み層を動的に進化させるアルゴリズムを提案する。
厳密なアーキテクチャの代わりに、我々のアプローチはカーネルを畳み込み層に反復的に導入し、様々なデータに対してリアルタイムに応答する。
興味深いことに、我々の教師なしの手法は、さまざまなデータセットにまたがって教師なしの手法を上回った。
論文 参考訳(メタデータ) (2023-09-06T14:43:58Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Reverse engineering recurrent neural networks with Jacobian switching
linear dynamical systems [24.0378100479104]
リカレントニューラルネットワーク(RNN)は時系列データを処理する強力なモデルである。
トレーニングされたRNNをその固定点を中心に線形化することでリバースエンジニアリングするフレームワークは洞察を与えてきたが、アプローチには大きな課題がある。
本稿では,新しい線形力学系 (SLDS) の定式化によるRNNの協調学習により,これらの制約を克服する新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-11-01T20:49:30Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - R-FORCE: Robust Learning for Random Recurrent Neural Networks [6.285241353736006]
RRNNのロバスト性を高めるためのロバストトレーニング手法を提案する。
FORCE学習アプローチは、目標学習の課題にも適用可能であることが示された。
実験の結果,R-FORCEはより広範囲のRRNNに対して,より安定かつ正確な目標学習を促進することが示唆された。
論文 参考訳(メタデータ) (2020-03-25T22:08:03Z) - Model-Driven Beamforming Neural Networks [47.754731555563836]
本稿では、一般データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を紹介する。
様々な学習戦略を示し、DLベースのBNNの複雑さの低減についても論じている。
また、BNNの汎用性を向上させるため、トレーニングセットの強化や伝達学習などの強化手法も提供する。
論文 参考訳(メタデータ) (2020-01-15T12:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。