論文の概要: On optimal solutions of classical and sliced Wasserstein GANs with non-Gaussian data
- arxiv url: http://arxiv.org/abs/2509.06505v1
- Date: Mon, 08 Sep 2025 10:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.056906
- Title: On optimal solutions of classical and sliced Wasserstein GANs with non-Gaussian data
- Title(参考訳): 非ガウス的データを用いた古典的およびスライスされたワッサーシュタインGANの最適解について
- Authors: Yu-Jui Huang, Hsin-Hua Shen, Yu-Chih Huang, Wan-Yi Lin, Shih-Chun Lin,
- Abstract要約: GAN(Generative Adversarial Network)は、パラメータ化されたニューラルネットワーク(NN)を介して未知の分布を近似することを目的とする。
最も有望なGAN変種の一つは、ワッサーシュタイン GAN (WGAN) である。
NNが非線形活性化関数を持ち、データがガウス的でない場合、一次元WGANに対して閉形式最適パラメータを導出する。
- 参考スコア(独自算出の注目度): 10.09163122660547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generative adversarial network (GAN) aims to approximate an unknown distribution via a parameterized neural network (NN). While GANs have been widely applied in reinforcement and semisupervised learning as well as computer vision tasks, selecting their parameters often needs an exhaustive search and only a few selection methods can be proved to be theoretically optimal. One of the most promising GAN variants is the Wasserstein GAN (WGAN). Prior work on optimal parameters for WGAN is limited to the linear-quadratic-Gaussian (LQG) setting, where the NN is linear and the data is Gaussian. In this paper, we focus on the characterization of optimal WGAN parameters beyond the LQG setting. We derive closed-form optimal parameters for one-dimensional WGANs when the NN has non-linear activation functions and the data is non-Gaussian. To extend this to high-dimensional WGANs, we adopt the sliced Wasserstein framework and replace the constraint on marginal distributions of the randomly projected data by a constraint on the joint distribution of the original (unprojected) data. We show that the linear generator can be asymptotically optimal for sliced WGAN with non-Gaussian data. Empirical studies show that our closed-form WGAN parameters have good convergence behavior with data under both Gaussian and Laplace distributions. Also, compared to the r principal component analysis (r-PCA) solution, our proposed solution for sliced WGAN can achieve the same performance while requiring less computational resources.
- Abstract(参考訳): 生成敵ネットワーク(GAN)は、パラメータ化されたニューラルネットワーク(NN)を介して未知の分布を近似することを目的としている。
GANは強化学習や半教師付き学習、コンピュータビジョンタスクに広く応用されてきたが、パラメータの選択には徹底的な探索が必要であり、理論的に最適であることが証明できるのはごくわずかである。
最も有望なGANの1つは、WGAN(Wasserstein GAN)である。
WGANの最適パラメータに関する以前の研究は、NNが線型でデータがガウス的である線形四進ガウス的(LQG)設定に限られていた。
本稿では,LQG設定を超える最適なWGANパラメータのキャラクタリゼーションに焦点を当てる。
NNが非線形活性化関数を持ち、データがガウス的でない場合、一次元WGANに対して閉形式最適パラメータを導出する。
これを高次元 WGAN に拡張するため、スライスした Wasserstein フレームワークを採用し、ランダムに投影されたデータの辺り分布の制約を元の(未投影)データの結合分布の制約で置き換える。
非ガウスデータのスライスWGANに対して線形生成器が漸近的に最適であることを示す。
実験により、我々の閉形式WGANパラメータはガウス分布とラプラス分布の両方でデータとよく収束挙動を持つことが示された。
また,r主成分分析(r-PCA)法と比較して,計算資源の削減を図りながら,WGANのスライス化を図った。
関連論文リスト
- On the Statistical Properties of Generative Adversarial Models for Low Intrinsic Data Dimension [32.98264375121064]
我々は、データと潜伏空間の内在次元の観点から、推定密度に関する統計的保証を導出する。
我々は,非滑らかな分布においても,GANが最小値の最適値を効果的に達成できることを実証した。
論文 参考訳(メタデータ) (2024-01-28T23:18:10Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Generative Adversarial Neural Operators [59.21759531471597]
本稿では,無限次元関数空間上の確率学習のための生成モデルであるGANOを提案する。
GANOは、ジェネレータニューラル演算子と識別器ニューラル関数の2つの主要成分から構成される。
入力関数と出力関数が共に GRF からのサンプルである場合のGANO を実験的に検討し、その性能を有限次元の GAN と比較する。
論文 参考訳(メタデータ) (2022-05-06T05:12:22Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Optimal 1-Wasserstein Distance for WGANs [2.1174215880331775]
有限標本とレジームの両方において、WGAN(Wasserstein GANs)を徹底的に解析する。
半離散状態における最適輸送理論の新たな結果を導出する。
論文 参考訳(メタデータ) (2022-01-08T13:04:03Z) - Hidden Convexity of Wasserstein GANs: Interpretable Generative Models
with Closed-Form Solutions [31.952858521063277]
凸双対レンズを用いた2層ニューラルネットワーク判別器によるワッサースタインGANの影響を解析した。
さらに、識別器の異なる活性化機能のパワーを実証する。
論文 参考訳(メタデータ) (2021-07-12T18:33:49Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Towards GANs' Approximation Ability [8.471366736328811]
本稿ではまず,GANの近似特性を理論的に解析する。
GANの入力潜在変数を持つジェネレータは、ポテンシャルデータ分布を普遍的に近似できることを示す。
実際のデータセットでは、SDGを使用する4つのGANは、モデルアーキテクチャが小さい場合、対応する従来のGANよりも優れる。
論文 参考訳(メタデータ) (2020-04-10T02:40:16Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。