論文の概要: GENs: Generative Encoding Networks
- arxiv url: http://arxiv.org/abs/2010.15283v1
- Date: Wed, 28 Oct 2020 23:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:58:11.157216
- Title: GENs: Generative Encoding Networks
- Title(参考訳): GEN: 生成エンコーディングネットワーク
- Authors: Surojit Saha, Shireen Elhabian, Ross T. Whitaker
- Abstract要約: 本稿では,未知のデータ分布と未知のターゲット分布を一致させるために,Jensen-Shannon分散を推定するための非パラメトリック密度法を提案し,解析する。
この分析法には、サンプル量のトレーニングが低いときのより良い振舞い、証明可能な収束特性、比較的少ないパラメータ、分析的に導出できるパラメータなど、いくつかの利点がある。
- 参考スコア(独自算出の注目度): 4.269725092203672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mapping data from and/or onto a known family of distributions has become an
important topic in machine learning and data analysis. Deep generative models
(e.g., generative adversarial networks ) have been used effectively to match
known and unknown distributions. Nonetheless, when the form of the target
distribution is known, analytical methods are advantageous in providing robust
results with provable properties. In this paper, we propose and analyze the use
of nonparametric density methods to estimate the Jensen-Shannon divergence for
matching unknown data distributions to known target distributions, such
Gaussian or mixtures of Gaussians, in latent spaces. This analytical method has
several advantages: better behavior when training sample quantity is low,
provable convergence properties, and relatively few parameters, which can be
derived analytically. Using the proposed method, we enforce the latent
representation of an autoencoder to match a target distribution in a learning
framework that we call a {\em generative encoding network}. Here, we present
the numerical methods; derive the expected distribution of the data in the
latent space; evaluate the properties of the latent space, sample
reconstruction, and generated samples; show the advantages over the adversarial
counterpart; and demonstrate the application of the method in real world.
- Abstract(参考訳): 既知の分散ファミリへのデータのマッピングは、機械学習とデータ分析において重要なトピックとなっている。
深い生成モデル(例えば、生成的敵ネットワーク)は、既知の分布と未知の分布とを効果的にマッチングするために使われてきた。
それにもかかわらず、対象分布の形式が知られているとき、分析手法は証明可能な特性を持つ堅牢な結果を提供するのに有利である。
本稿では,非パラメトリック密度法を用いて,未知のデータ分布をガウス分布やガウス分布などの既知の対象分布とマッチングするために,潜在空間においてjensen-shannon分岐を推定する手法を提案し,解析する。
この分析法には、サンプル量のトレーニングが低い場合のより良い挙動、証明可能な収束特性、比較的少ないパラメータを解析的に導出できるという利点がある。
提案手法を用いて,自動エンコーダの潜在表現を,学習フレームワークにおける目標分布に適合させるために強制する。
ここでは, 潜在空間におけるデータの期待分布を導出し, 潜在空間の特性評価, サンプル再構成, 生成サンプルの評価を行うとともに, 実世界における手法の適用性を示す数値的手法を提案する。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Score-based generative models break the curse of dimensionality in
learning a family of sub-Gaussian probability distributions [5.801621787540268]
標準ガウス測度に対する相対密度の観点から確率分布の複雑性の概念を導入する。
パラメータが適切に有界なニューラルネットワークで対数相対密度を局所的に近似できるなら、経験的スコアマッチングによって生成された分布はターゲット分布を近似する。
本証明の重要な要素は,前処理に付随する真のスコア関数に対する次元自由深部ニューラルネットワーク近似率を導出することである。
論文 参考訳(メタデータ) (2024-02-12T22:02:23Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Probabilistic Matching of Real and Generated Data Statistics in Generative Adversarial Networks [0.6906005491572401]
本稿では,あるデータ統計量の分布が実データの分布と一致することを確実にする手法を提案する。
提案手法を合成データセットと実世界のデータセットで評価し,提案手法の性能向上を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:03:27Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - A likelihood approach to nonparametric estimation of a singular
distribution using deep generative models [4.329951775163721]
深部生成モデルを用いた特異分布の非パラメトリック推定の可能性について検討する。
我々は、インスタンスノイズでデータを摂動することで、新しい効果的な解が存在することを証明した。
また、より深い生成モデルにより効率的に推定できる分布のクラスを特徴付ける。
論文 参考訳(メタデータ) (2021-05-09T23:13:58Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。