論文の概要: GAT-GMM: Generative Adversarial Training for Gaussian Mixture Models
- arxiv url: http://arxiv.org/abs/2006.10293v1
- Date: Thu, 18 Jun 2020 06:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:42:17.246782
- Title: GAT-GMM: Generative Adversarial Training for Gaussian Mixture Models
- Title(参考訳): gat-gmm:ガウス混合モデルの生成的逆訓練
- Authors: Farzan Farnia, William Wang, Subhro Das, Ali Jadbabaie
- Abstract要約: GAN(Generative Adversarial Network)は、ゼロサムゲームを通して観測されたサンプルの分布を学習する。
本稿では,GAT-GMM(Gene Adversarial Gaussian Models)を提案する。
GAT-GMMは2つのガウスの混合学習において期待-最大化アルゴリズムと同様に機能することを示す。
- 参考スコア(独自算出の注目度): 29.42264360774606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) learn the distribution of observed
samples through a zero-sum game between two machine players, a generator and a
discriminator. While GANs achieve great success in learning the complex
distribution of image, sound, and text data, they perform suboptimally in
learning multi-modal distribution-learning benchmarks including Gaussian
mixture models (GMMs). In this paper, we propose Generative Adversarial
Training for Gaussian Mixture Models (GAT-GMM), a minimax GAN framework for
learning GMMs. Motivated by optimal transport theory, we design the zero-sum
game in GAT-GMM using a random linear generator and a softmax-based quadratic
discriminator architecture, which leads to a non-convex concave minimax
optimization problem. We show that a Gradient Descent Ascent (GDA) method
converges to an approximate stationary minimax point of the GAT-GMM
optimization problem. In the benchmark case of a mixture of two symmetric,
well-separated Gaussians, we further show this stationary point recovers the
true parameters of the underlying GMM. We numerically support our theoretical
findings by performing several experiments, which demonstrate that GAT-GMM can
perform as well as the expectation-maximization algorithm in learning mixtures
of two Gaussians.
- Abstract(参考訳): generative adversarial networks (gans) は、2人のマシンプレーヤーとジェネレータと判別器の間のゼロサムゲームを通じて観測されたサンプルの分布を学習する。
GANは画像,音,テキストデータの複雑な分布を学習する上で大きな成功を収める一方で,ガウス混合モデル(GMM)を含むマルチモーダル分布学習ベンチマークの学習において準最適に実行する。
本稿では,GMM学習のための最小GANフレームワークであるガウス混合モデル(GAT-GMM)のジェネレーティブ・アドバイサル・トレーニングを提案する。
最適輸送理論により,GAT-GMMにおけるゼロサムゲームは,ランダム線形生成器とソフトマックスに基づく2次判別器アーキテクチャを用いて設計し,非凸凹極小最適化問題をもたらす。
GAT-GMM最適化問題において,GDA法(Gradient Descent Ascent)法が近似した定常極小点に収束することを示す。
2つの対称な分離されたガウス多様体の混合のベンチマークの場合、この定常点が基礎となるGMMの真のパラメータを復元することを示す。
GAT-GMMは2つのガウスの混合学習において,予測最大化アルゴリズムと同様に,いくつかの実験を行い,理論的な知見を数値的に支持する。
関連論文リスト
- Toward Global Convergence of Gradient EM for Over-Parameterized Gaussian Mixture Models [47.294535652946095]
ガウス混合モデル(GMM)の勾配予測-最大化(EM)アルゴリズムについて検討する。
これは、2ドル以上の成分を持つガウス混合に対する最初の大域収束結果である。
論文 参考訳(メタデータ) (2024-06-29T16:44:29Z) - Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Improved DDIM Sampling with Moment Matching Gaussian Mixtures [1.450405446885067]
本稿では,Gaussian Mixture Model (GMM) を逆遷移演算子 (カーネル) として,DDIM(Denoising Diffusion Implicit Models) フレームワーク内で提案する。
我々は,GMMのパラメータを制約することにより,DDPMフォワードの1次と2次の中心モーメントを一致させる。
以上の結果から, GMMカーネルを使用すれば, サンプリングステップ数が少ない場合に, 生成したサンプルの品質が大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2023-11-08T00:24:50Z) - An Efficient 1 Iteration Learning Algorithm for Gaussian Mixture Model
And Gaussian Mixture Embedding For Neural Network [2.261786383673667]
新しいアルゴリズムは、古典的な期待最大化(EM)アルゴリズムよりも頑丈さと単純さをもたらす。
また、精度も向上し、学習に1回しかかからない。
論文 参考訳(メタデータ) (2023-08-18T10:17:59Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Image Modeling with Deep Convolutional Gaussian Mixture Models [79.0660895390689]
画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
論文 参考訳(メタデータ) (2021-04-19T12:08:53Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - DeepGMR: Learning Latent Gaussian Mixture Models for Registration [113.74060941036664]
ポイントクラウドの登録は、3Dコンピュータビジョン、グラフィックス、ロボット工学の基本的な問題である。
本稿では,最初の学習ベース登録法であるDeep Gaussian Mixture Registration(DeepGMR)を紹介する。
提案手法は,最先端の幾何学的および学習的登録手法と比較して,良好な性能を示す。
論文 参考訳(メタデータ) (2020-08-20T17:25:16Z) - Effective Learning of a GMRF Mixture Model [8.336315962271396]
我々はGMMをガウスマルコフ確率場混合モデル(GMRF-MM)に限定することを提案する。
各行列の空間パターンが知られているとき、その行列の最大近似(MLE)の効率的な最適化法を提案する。
GMRFとGMRF-MMの両症例でGLASSOの「偏り」はGLASSOよりも優れていた。
論文 参考訳(メタデータ) (2020-05-18T19:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。