論文の概要: Forward Super-Resolution: How Can GANs Learn Hierarchical Generative
Models for Real-World Distributions
- arxiv url: http://arxiv.org/abs/2106.02619v2
- Date: Sun, 2 Apr 2023 06:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 02:00:15.240191
- Title: Forward Super-Resolution: How Can GANs Learn Hierarchical Generative
Models for Real-World Distributions
- Title(参考訳): 前進超解像:ganが実世界分布の階層的生成モデルをどのように学習するか
- Authors: Zeyuan Allen-Zhu and Yuanzhi Li
- Abstract要約: 生成ネットワーク(GAN)は、複雑で現実世界の分布を学習する上で最も成功したネットワークの一つである。
本稿では,GANが実写画像の分布を効率的に学習する方法について述べる。
- 参考スコア(独自算出の注目度): 66.05472746340142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are among the most successful models
for learning high-complexity, real-world distributions. However, in theory, due
to the highly non-convex, non-concave landscape of the minmax training
objective, GAN remains one of the least understood deep learning models. In
this work, we formally study how GANs can efficiently learn certain
hierarchically generated distributions that are close to the distribution of
real-life images. We prove that when a distribution has a structure that we
refer to as Forward Super-Resolution, then simply training generative
adversarial networks using stochastic gradient descent ascent (SGDA) can learn
this distribution efficiently, both in sample and time complexities. We also
provide empirical evidence that our assumption "forward super-resolution" is
very natural in practice, and the underlying learning mechanisms that we study
in this paper (to allow us efficiently train GAN via SGDA in theory) simulates
the actual learning process of GANs on real-world problems.
- Abstract(参考訳): generative adversarial network (gans) は、複雑な実世界の分布を学習するための最も成功したモデルの一つである。
しかし理論上は、minmaxトレーニング対象の非常に非凸で非凸なランドスケープのため、ganは依然として最も理解されていない深層学習モデルの1つである。
本研究では,GANが実生活画像の分布に近い階層的な分布を効率的に学習する方法を正式に研究する。
分布が前方超解像と呼ばれる構造を持つ場合、確率的勾配降下上昇(sgda)を用いた生成的逆ネットワークを単に訓練することで、サンプルと時間の複雑さの両方において、この分布を効率的に学習できることを証明する。
また,本論文で研究している基礎的な学習メカニズム(理論上はSGDAによる GAN の学習を効率的に行うことができる)は実世界の問題における GAN の実際の学習過程をシミュレートする。
関連論文リスト
- Parallelly Tempered Generative Adversarial Networks [7.94957965474334]
生成的敵対ネットワーク(GAN)は、生成的人工知能(AI)における代表的バックボーンモデルである。
本研究は,モード崩壊の存在下でのトレーニングの不安定性と非効率性を,対象分布におけるマルチモーダルにリンクすることで解析する。
新たに開発したGAN目標関数により, 生成元は同時に全ての誘電分布を学習することができる。
論文 参考訳(メタデータ) (2024-11-18T18:01:13Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Global-Local Regularization Via Distributional Robustness [26.983769514262736]
ディープニューラルネットワークは、しばしば敵の例や分布シフトに弱い。
最近のアプローチでは、分散ロバストネス最適化(DRO)を利用して、最も難しい分布を見つける。
本稿では,Wasserstein をベースとした DRO フレームワークの後継として,新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T15:36:12Z) - Minimax Optimality (Probably) Doesn't Imply Distribution Learning for
GANs [44.4200799586461]
標準的な暗号的仮定は、この強い条件がまだ不十分であることを示している。
我々の技術は、GANとPRGの深い関係を明らかにし、GANの計算環境に関するさらなる洞察をもたらすものと信じている。
論文 参考訳(メタデータ) (2022-01-18T18:59:21Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Prb-GAN: A Probabilistic Framework for GAN Modelling [20.181803514993778]
本稿では,ネットワークパラメータ上の分布を生成するためにドロップアウトを用いた新しいバリエーションを提案する。
我々の手法は非常にシンプルで、既存のGANアーキテクチャの変更はほとんど必要ありません。
論文 参考訳(メタデータ) (2021-07-12T08:04:13Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。