論文の概要: The VampPrior Mixture Model
- arxiv url: http://arxiv.org/abs/2402.04412v3
- Date: Tue, 11 Mar 2025 03:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:41:12.683650
- Title: The VampPrior Mixture Model
- Title(参考訳): VampPrior混合モデル
- Authors: Andrew A. Stirn, David A. Knowles,
- Abstract要約: 我々は、Vamp Prior Mixture Model(VMM)と呼ばれる、深層潜伏変数モデル(DLVM)の新規な事前開発を行う。
VAEでは、VMMはベンチマークデータセット上で非常に競争力のあるクラスタリング性能を達成する。
- 参考スコア(独自算出の注目度): 0.8440673378588488
- License:
- Abstract: Widely used deep latent variable models (DLVMs), in particular Variational Autoencoders (VAEs), employ overly simplistic priors on the latent space. To achieve strong clustering performance, existing methods that replace the standard normal prior with a Gaussian mixture model (GMM) require defining the number of clusters to be close to the number of expected ground truth classes a-priori and are susceptible to poor initializations. We leverage VampPrior concepts (Tomczak and Welling, 2018) to fit a Bayesian GMM prior, resulting in the VampPrior Mixture Model (VMM), a novel prior for DLVMs. In a VAE, the VMM attains highly competitive clustering performance on benchmark datasets. Integrating the VMM into scVI (Lopez et al., 2018), a popular scRNA-seq integration method, significantly improves its performance and automatically arranges cells into clusters with similar biological characteristics.
- Abstract(参考訳): 広範に使用される深遅延変数モデル(DLVM)、特に変分オートエンコーダ(VAE)は、潜時空間において過度に単純化された先例を用いる。
クラスタリング性能を高めるために、標準的な正規化をガウス混合モデル(GMM)に置き換える既存の手法では、期待される基底真理クラスa-prioriの数に近いクラスタ数を定義する必要があり、初期化が貧弱である。
我々は、VampPriorの概念(TomczakとWelling, 2018)を活用して、ベイジアンGMMに前もって適合させ、結果として、DLVMの先駆けとなるVampPrior Mixture Model(VMM)を生み出しました。
VAEでは、VMMはベンチマークデータセット上で非常に競争力のあるクラスタリング性能を達成する。
一般的な scRNA-seq 統合手法である scVI (Lopez et al , 2018) への VMM の統合は、その性能を大幅に改善し、細胞を同様の生物学的特徴を持つクラスターに自動的に配置する。
関連論文リスト
- Deep Generative Clustering with VAEs and Expectation-Maximization [1.8416014644193066]
本稿では,変分オートエンコーダ(VAE)を期待最大化フレームワークに統合する新しいディープクラスタリング手法を提案する。
提案手法は,各クラスタの確率分布をVAEでモデル化し,モデルパラメータの更新を交互に行う。
これにより、各クラスタから有効なクラスタリングと新しいサンプルの生成が可能になる。
論文 参考訳(メタデータ) (2025-01-13T14:26:39Z) - Hierarchical VAE with a Diffusion-based VampPrior [16.482333106552794]
拡散に基づく後方前葉の変動混合(VampPrior)を用いた階層型VAEの導入
提案手法により,従来の VampPrior の動作や,その他の階層的なVAE と比較して,パフォーマンスが向上する。
提案手法を標準ベンチマークデータセット上で実証的に検証し,トレーニング安定性の向上と遅延空間利用の実証を行った。
論文 参考訳(メタデータ) (2024-12-02T10:58:09Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - A Robust Speaker Clustering Method Based on Discrete Tied Variational
Autoencoder [27.211505187332385]
集約階層クラスタ(AHC)に基づく従来の話者クラスタリング手法は、長時間実行の欠点があり、環境騒音に敏感である。
本稿では,相互情報(MI)に基づく新しい話者クラスタリング手法と,雑音に対するロバスト性を高めるためにタイド変分オートエンコーダ(TVAE)の啓蒙の下で,離散変数を持つ非線形モデルを提案する。
論文 参考訳(メタデータ) (2020-03-04T08:54:38Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。