論文の概要: An Empirical Comparison of GANs and Normalizing Flows for Density
Estimation
- arxiv url: http://arxiv.org/abs/2006.10175v2
- Date: Tue, 14 Dec 2021 16:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:01:55.073562
- Title: An Empirical Comparison of GANs and Normalizing Flows for Density
Estimation
- Title(参考訳): 密度推定のためのGANと正規化流れの実証比較
- Authors: Tianci Liu, Jeffrey Regier
- Abstract要約: GAN(Generative Adversarial Network)と正規化フローは、ディープニューラルネットワークを用いた密度推定へのアプローチである。
GANと正規化フローは、画像以外のデータをモデリングするために比較されることはめったにない。
GANは私たちの単純な低次元データをうまくモデル化することができず、汎用統計モデリングに適したアプローチの前提条件として私たちが考えるタスクである。
- 参考スコア(独自算出の注目度): 5.837881923712393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) and normalizing flows are both
approaches to density estimation that use deep neural networks to transform
samples from an uninformative prior distribution to an approximation of the
data distribution. There is great interest in both for general-purpose
statistical modeling, but the two approaches have seldom been compared to each
other for modeling non-image data. The difficulty of computing likelihoods with
GANs, which are implicit models, makes conducting such a comparison
challenging. We work around this difficulty by considering several
low-dimensional synthetic datasets. An extensive grid search over GAN
architectures, hyperparameters, and training procedures suggests that no GAN is
capable of modeling our simple low-dimensional data well, a task we view as a
prerequisite for an approach to be considered suitable for general-purpose
statistical modeling. Several normalizing flows, on the other hand, excelled at
these tasks, even substantially outperforming WGAN in terms of Wasserstein
distance -- the metric that WGAN alone targets. Scientists and other
practitioners should be wary of relying on WGAN for applications that require
accurate density estimation.
- Abstract(参考訳): generative adversarial network (gans) と正規化フローはどちらも密度推定へのアプローチであり、深層ニューラルネットワークを用いて非形式的事前分布からデータ分布の近似にサンプルを変換する。
汎用統計モデリングにも大きな関心があるが、画像以外のデータのモデリングでは、両者のアプローチが比較されることはほとんどない。
暗黙のモデルであるGANを用いた計算の難しさは、そのような比較を行うのを困難にしている。
いくつかの低次元の合成データセットを考慮し、この難しさを回避する。
GANアーキテクチャ、ハイパーパラメータ、トレーニング手順を網羅的に探索した結果、GANが私たちの単純な低次元データをうまくモデル化できないことが示唆された。
一方、いくつかの正規化フローはこれらのタスクに優れており、wasserstein距離(wgan単独がターゲットとするメトリック)でwganを実質的に上回っている。
科学者や他の専門家は、正確な密度推定を必要とするアプリケーションにWGANに頼ることに注意する必要がある。
関連論文リスト
- On the Statistical Properties of Generative Adversarial Models for Low
Intrinsic Data Dimension [38.964624328622]
我々は、データと潜伏空間の内在次元の観点から、推定密度に関する統計的保証を導出する。
我々は,非滑らかな分布においても,GANが最小値の最適値を効果的に達成できることを実証した。
論文 参考訳(メタデータ) (2024-01-28T23:18:10Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Latent Space Model for Higher-order Networks and Generalized Tensor
Decomposition [18.07071669486882]
我々は、複雑な高次ネットワーク相互作用を研究するために、一般的な潜在空間モデルとして定式化された統一フレームワークを導入する。
一般化された多線形カーネルをリンク関数として、潜伏位置と観測データとの関係を定式化する。
本手法が合成データに与える影響を実証する。
論文 参考訳(メタデータ) (2021-06-30T13:11:17Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z) - Generative Adversarial Networks (GANs): An Overview of Theoretical
Model, Evaluation Metrics, and Recent Developments [9.023847175654602]
GAN(Generative Adversarial Network)は,大規模データ分散のサンプルを作成する上で有効な手法である。
GANはラベル付きトレーニングデータを広く使用せずにディープ表現を学習する適切な方法を提供する。
GANでは、ジェネレータと識別器のネットワークを同時にトレーニングする競合プロセスを通じて生成モデルを推定する。
論文 参考訳(メタデータ) (2020-05-27T05:56:53Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。