論文の概要: Non-Asymptotic Error Bounds for Bidirectional GANs
- arxiv url: http://arxiv.org/abs/2110.12319v1
- Date: Sun, 24 Oct 2021 00:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 19:08:47.261984
- Title: Non-Asymptotic Error Bounds for Bidirectional GANs
- Title(参考訳): 双方向GANに対する非漸近誤差境界
- Authors: Shiao Liu, Yunfei Yang, Jian Huang, Yuling Jiao, Yang Wang
- Abstract要約: ダドリー距離下での双方向GAN(BiGAN)推定誤差に対して,ほぼ鋭い境界を求める。
これは、双方向GAN学習アプローチに対する最初の理論的保証である。
- 参考スコア(独自算出の注目度): 10.62911757343557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive nearly sharp bounds for the bidirectional GAN (BiGAN) estimation
error under the Dudley distance between the latent joint distribution and the
data joint distribution with appropriately specified architecture of the neural
networks used in the model. To the best of our knowledge, this is the first
theoretical guarantee for the bidirectional GAN learning approach. An appealing
feature of our results is that they do not assume the reference and the data
distributions to have the same dimensions or these distributions to have
bounded support. These assumptions are commonly assumed in the existing
convergence analysis of the unidirectional GANs but may not be satisfied in
practice. Our results are also applicable to the Wasserstein bidirectional GAN
if the target distribution is assumed to have a bounded support. To prove these
results, we construct neural network functions that push forward an empirical
distribution to another arbitrary empirical distribution on a possibly
different-dimensional space. We also develop a novel decomposition of the
integral probability metric for the error analysis of bidirectional GANs. These
basic theoretical results are of independent interest and can be applied to
other related learning problems.
- Abstract(参考訳): モデルで使用するニューラルネットワークのアーキテクチャを適切に指定した,潜在関節分布とデータ結合分布とのダドリー距離の両方向GAN推定誤差に対して,ほぼ鋭い境界を導出する。
我々の知る限りでは、これは双方向のGAN学習アプローチに対する最初の理論的保証である。
我々の結果の魅力的な特徴は、参照とデータ分布が同じ次元またはこれらの分布が有界な支持を持つと仮定しないことである。
これらの仮定は、一方向ganの既存の収束解析で一般的に仮定されるが、実際には満足できない。
この結果は、対象分布が有界な支持を持つと仮定された場合、wasserstein bidirectional ganにも適用できる。
これらの結果を証明するために,経験的分布を別の任意の経験的分布に推し進めるニューラルネットワーク関数を構築した。
また,両方向GANの誤差解析のための積分確率計量の新たな分解法を開発した。
これらの基本的な理論的結果は独立した興味を持ち、他の関連する学習問題に適用できる。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - On the Statistical Properties of Generative Adversarial Models for Low
Intrinsic Data Dimension [38.964624328622]
我々は、データと潜伏空間の内在次元の観点から、推定密度に関する統計的保証を導出する。
我々は,非滑らかな分布においても,GANが最小値の最適値を効果的に達成できることを実証した。
論文 参考訳(メタデータ) (2024-01-28T23:18:10Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Investigating Shifts in GAN Output-Distributions [5.076419064097734]
本稿では,実学習データとGAN生成データの分布の可観測的変化を系統的に調査するためのループ学習手法を提案する。
全体として、これらの手法を組み合わせることで、現在のGANアルゴリズムの自然的制限を爆発的に調査することができる。
論文 参考訳(メタデータ) (2021-12-28T09:16:55Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。