論文の概要: Generative adversarial learning with optimal input dimension and its adaptive generator architecture
- arxiv url: http://arxiv.org/abs/2405.03723v1
- Date: Mon, 6 May 2024 03:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 18:24:15.414427
- Title: Generative adversarial learning with optimal input dimension and its adaptive generator architecture
- Title(参考訳): 最適入力次元をもつ生成逆学習とその適応生成器アーキテクチャ
- Authors: Zhiyao Tan, Ling Zhou, Huazhen Lin,
- Abstract要約: 一般化GAN(Generalized GAN)と呼ばれる新しいフレームワークを導入する。
グループペナルティとアーキテクチャペナルティを取り入れることで、G-GANにはいくつかの興味深い特徴がある。
シミュレーションおよびベンチマークデータを用いて行った大規模な実験は、G-GANの優れた性能を示す。
- 参考スコア(独自算出の注目度): 3.9043107077488797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the impact of the input dimension on the generalization error in generative adversarial networks (GANs). In particular, we first provide both theoretical and practical evidence to validate the existence of an optimal input dimension (OID) that minimizes the generalization error. Then, to identify the OID, we introduce a novel framework called generalized GANs (G-GANs), which includes existing GANs as a special case. By incorporating the group penalty and the architecture penalty developed in the paper, G-GANs have several intriguing features. First, our framework offers adaptive dimensionality reduction from the initial dimension to a dimension necessary for generating the target distribution. Second, this reduction in dimensionality also shrinks the required size of the generator network architecture, which is automatically identified by the proposed architecture penalty. Both reductions in dimensionality and the generator network significantly improve the stability and the accuracy of the estimation and prediction. Theoretical support for the consistent selection of the input dimension and the generator network is provided. Third, the proposed algorithm involves an end-to-end training process, and the algorithm allows for dynamic adjustments between the input dimension and the generator network during training, further enhancing the overall performance of G-GANs. Extensive experiments conducted with simulated and benchmark data demonstrate the superior performance of G-GANs. In particular, compared to that of off-the-shelf methods, G-GANs achieves an average improvement of 45.68% in the CT slice dataset, 43.22% in the MNIST dataset and 46.94% in the FashionMNIST dataset in terms of the maximum mean discrepancy or Frechet inception distance. Moreover, the features generated based on the input dimensions identified by G-GANs align with visually significant features.
- Abstract(参考訳): 本稿では,GANの一般化誤差に対する入力次元の影響について検討する。
特に、一般化誤差を最小化する最適入力次元(OID)の存在を検証するための理論的および実践的な証拠をまず提示する。
そして,OIDを識別するために,既存のGANを特殊なケースとして含む一般化GAN(Generalized GANs, G-GANs)という新しいフレームワークを導入する。
本論文で開発されたグループペナルティとアーキテクチャペナルティを取り入れることで、G-GANにはいくつかの興味深い特徴がある。
まず、本フレームワークは、初期次元から目標分布を生成するために必要な次元への適応的な次元性還元を提供する。
第二に、この次元の減少は、提案したアーキテクチャペナルティによって自動的に識別されるジェネレータネットワークアーキテクチャに必要なサイズを縮小する。
次元の低減とジェネレータネットワークの両面において,推定と予測の安定性と精度が著しく向上した。
入力次元とジェネレータネットワークの一貫性のある選択に関する理論的支援を提供する。
第三に、提案アルゴリズムは、エンドツーエンドのトレーニングプロセスを含み、このアルゴリズムは、トレーニング中に入力次元とジェネレータネットワークの間の動的調整を可能にし、G-GANの全体的な性能をさらに向上させる。
シミュレーションおよびベンチマークデータを用いて行った大規模な実験は、G-GANの優れた性能を示す。
特に、市販の方法と比較して、G-GANsはCTスライスデータセットで45.68%、MNISTデータセットで43.22%、FashionMNISTデータセットで46.94%の改善を実現している。
さらに、G-GANによって識別される入力次元に基づいて生成された特徴は、視覚的に重要な特徴と一致している。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Predicting Transonic Flowfields in Non-Homogeneous Unstructured Grids Using Autoencoder Graph Convolutional Networks [0.0]
本稿では,計算流体力学(CFD)においてよく用いられる非均一非構造格子による問題に対処することに焦点を当てる。
我々のアプローチの核となるのは幾何学的深層学習、特にグラフ畳み込みネットワーク(GCN)の利用である。
新規なAutoencoder GCNアーキテクチャは、情報を遠隔ノードに伝播し、影響力のある点を強調することにより、予測精度を向上させる。
論文 参考訳(メタデータ) (2024-05-07T15:18:21Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Restrained Generative Adversarial Network against Overfitting in Numeric
Data Augmentation [9.265768052866786]
Generative Adversarial Network (GAN) は、画像データセットを増強する一般的なスキームの1つである。
本研究では, GAN における生成元 G が低次元空間における数値データの生成に失敗することを示す。
本稿では,過度な適合を抑制するため,損失関数の独立性を理論的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-10-26T13:01:24Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Towards GANs' Approximation Ability [8.471366736328811]
本稿ではまず,GANの近似特性を理論的に解析する。
GANの入力潜在変数を持つジェネレータは、ポテンシャルデータ分布を普遍的に近似できることを示す。
実際のデータセットでは、SDGを使用する4つのGANは、モデルアーキテクチャが小さい場合、対応する従来のGANよりも優れる。
論文 参考訳(メタデータ) (2020-04-10T02:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。