論文の概要: GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences
- arxiv url: http://arxiv.org/abs/2003.00652v3
- Date: Thu, 25 Feb 2021 23:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:22:57.597741
- Title: GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences
- Title(参考訳): 条件付き独立グラフを用いたGAN:確率分岐の付加性について
- Authors: Mucong Ding, Constantinos Daskalakis, Soheil Feizi
- Abstract要約: GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
- 参考スコア(独自算出の注目度): 70.30467057209405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are modern methods to learn the
underlying distribution of a data set. GANs have been widely used in sample
synthesis, de-noising, domain transfer, etc. GANs, however, are designed in a
model-free fashion where no additional information about the underlying
distribution is available. In many applications, however, practitioners have
access to the underlying independence graph of the variables, either as a
Bayesian network or a Markov Random Field (MRF). We ask: how can one use this
additional information in designing model-based GANs? In this paper, we provide
theoretical foundations to answer this question by studying subadditivity
properties of probability divergences, which establish upper bounds on the
distance between two high-dimensional distributions by the sum of distances
between their marginals over (local) neighborhoods of the graphical structure
of the Bayes-net or the MRF. We prove that several popular probability
divergences satisfy some notion of subadditivity under mild conditions. These
results lead to a principled design of a model-based GAN that uses a set of
simple discriminators on the neighborhoods of the Bayes-net/MRF, rather than a
giant discriminator on the entire network, providing significant statistical
and computational benefits. Our experiments on synthetic and real-world
datasets demonstrate the benefits of our principled design of model-based GANs.
- Abstract(参考訳): generative adversarial networks (gans) は、データセットの基盤となる分布を学ぶ現代的な手法である。
GANは、サンプル合成、脱ノイズ、ドメイン転送などに広く用いられている。
しかし、GANは、基礎となる分布に関する追加情報がないモデルフリーで設計されている。
しかし、多くの応用において、実践者はベイズネットワークまたはマルコフランダムフィールド(MRF)として、変数の基本的な独立グラフにアクセスすることができる。
モデルベースのGANの設計において、この追加情報をどのように利用できるのか?
本稿では,2つの高次元分布間の距離の上限をベイズネットやmrfのグラフィカルな構造の(局所的な)近傍における辺点間の距離の和として定式化する確率的発散の部分加法的性質を研究することにより,この問題に対する理論的基礎を提供する。
いくつかの一般的な確率の発散が軽度条件下での部分加法的概念を満足していることを証明する。
これらの結果は、ネットワーク全体の巨大な判別器ではなく、ベイズネット/mrfの近傍に一連の単純な判別器を使用するモデルベースのganを原則的に設計し、統計学的および計算的な利点を提供する。
合成および実世界のデータセットに関する我々の実験は、モデルベースGANの原則設計の利点を実証している。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - A Likelihood Based Approach to Distribution Regression Using Conditional Deep Generative Models [6.647819824559201]
本研究では,条件付き深部生成モデルの推定のための可能性に基づくアプローチの大規模サンプル特性について検討する。
その結果,条件分布を推定するための最大極大推定器の収束率を導いた。
論文 参考訳(メタデータ) (2024-10-02T20:46:21Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Non-Asymptotic Error Bounds for Bidirectional GANs [10.62911757343557]
ダドリー距離下での双方向GAN(BiGAN)推定誤差に対して,ほぼ鋭い境界を求める。
これは、双方向GAN学習アプローチに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2021-10-24T00:12:03Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z) - Brainstorming Generative Adversarial Networks (BGANs): Towards
Multi-Agent Generative Models with Distributed Private Datasets [70.62568022925971]
生成的敵ネットワーク(GAN)は、データ空間を適切に表現する大規模なデータセットによって供給されなければならない。
多くのシナリオでは、利用可能なデータセットは制限され、複数のエージェントに分散する可能性がある。
本稿では,BGAN(Breepstorming GAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-02T02:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。