論文の概要: On the Variational Posterior of Dirichlet Process Deep Latent Gaussian
Mixture Models
- arxiv url: http://arxiv.org/abs/2006.08993v2
- Date: Mon, 27 Jul 2020 12:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 18:44:27.390551
- Title: On the Variational Posterior of Dirichlet Process Deep Latent Gaussian
Mixture Models
- Title(参考訳): ディリクレ過程深部潜在ガウス混合模型の変分後方について
- Authors: Amine Echraibi (IMT Atlantique - INFO), Joachim Flocon-Cholet,
St\'ephane Gosselin, Sandrine Vaton (INFO)
- Abstract要約: ディリクレプロセスDep Latent Gaussian Mixture Model(DP-DLGMM)の後方変化に対する代替的治療法を提案する。
本モデルでは,得られたクラスタ毎に実例を生成でき,半教師付き環境での競合性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to the reparameterization trick, deep latent Gaussian models have
shown tremendous success recently in learning latent representations. The
ability to couple them however with nonparamet-ric priors such as the Dirichlet
Process (DP) hasn't seen similar success due to its non parameteriz-able
nature. In this paper, we present an alternative treatment of the variational
posterior of the Dirichlet Process Deep Latent Gaussian Mixture Model
(DP-DLGMM), where we show that the prior cluster parameters and the variational
posteriors of the beta distributions and cluster hidden variables can be
updated in closed-form. This leads to a standard reparameterization trick on
the Gaussian latent variables knowing the cluster assignments. We demonstrate
our approach on standard benchmark datasets, we show that our model is capable
of generating realistic samples for each cluster obtained, and manifests
competitive performance in a semi-supervised setting.
- Abstract(参考訳): 再パラメータ化のトリックのおかげで、深い潜在ガウスモデルは最近、潜在表現の学習において大きな成功を収めている。
しかし、dirichlet process (dp) のような非パラメトリリックなプリエントとそれらを結合する能力は、その非パラメタライズ可能な性質のため、同様の成功を収めていない。
本稿では, ディリクレ過程の変分後段 (dp-dlgmm) に対して, 先行するクラスターパラメータとベータ分布の変分後段, クラスタ隠れ変数をクローズドフォームで更新できることを示す。
これは、クラスタ割り当てを知るガウスの潜在変数に対する標準的な再パラメータ化トリックにつながる。
我々は,標準ベンチマークデータセットに対する我々のアプローチを実証し,得られたクラスタ毎に現実的なサンプルを生成できることを示し,半教師付き環境での競合性能を示す。
関連論文リスト
- Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Bayesian Beta-Bernoulli Process Sparse Coding with Deep Neural Networks [11.937283219047984]
深部離散潜在変数モデルに対して近似的推論法が提案されている。
このような深層モデルの離散潜在表現を学習するための非パラメトリック反復アルゴリズムを提案する。
提案手法は,異なる特徴を持つデータセット間で評価し,その結果を現在の補正近似推定法と比較する。
論文 参考訳(メタデータ) (2023-03-14T20:50:12Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Online Variational Filtering and Parameter Learning [26.79116194327116]
状態空間モデル(SSM)におけるオンライン状態推定とパラメータ学習のための変分法を提案する。
我々は、モデルパラメータと状態の後方分布の変動近似の両方に関して、ログエビデンスの低い境界を同時に最適化するために勾配を用いる。
従来の手法と異なり,本手法では,過去の観測結果が組み込まれてから修正する必要がなく,更新のコストが一定であるように,完全にオンラインで運用することが可能である。
論文 参考訳(メタデータ) (2021-10-26T10:25:04Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。