論文の概要: The VampPrior Mixture Model
- arxiv url: http://arxiv.org/abs/2402.04412v1
- Date: Tue, 6 Feb 2024 21:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:41:17.621808
- Title: The VampPrior Mixture Model
- Title(参考訳): VampPrior混合モデル
- Authors: Andrew Stirn and David A. Knowles
- Abstract要約: 深層潜伏変数モデル(DLVM)のクラスタ化には、a-prioriのクラスタ数を定義する必要がある。
We adapt the VampPrior process into a Dirichlet Mixture Model, result to the VampPrior Mixture Model (VMM, a novel for DLVMs。
本稿では,変分推論と経験的ベイズを交互に交互に交互に行う推論手法を提案する。
- 参考スコア(独自算出の注目度): 1.9943074894669663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current clustering priors for deep latent variable models (DLVMs) require
defining the number of clusters a-priori and are susceptible to poor
initializations. Addressing these deficiencies could greatly benefit deep
learning-based scRNA-seq analysis by performing integration and clustering
simultaneously. We adapt the VampPrior (Tomczak & Welling, 2018) into a
Dirichlet process Gaussian mixture model, resulting in the VampPrior Mixture
Model (VMM), a novel prior for DLVMs. We propose an inference procedure that
alternates between variational inference and Empirical Bayes to cleanly
distinguish variational and prior parameters. Using the VMM in a Variational
Autoencoder attains highly competitive clustering performance on benchmark
datasets. Augmenting scVI (Lopez et al., 2018), a popular scRNA-seq integration
method, with the VMM significantly improves its performance and automatically
arranges cells into biologically meaningful clusters.
- Abstract(参考訳): 深層潜伏変数モデル(DLVM)の現在のクラスタリングでは、a-prioriのクラスタ数を定義する必要があり、初期化が貧弱である。
これらの欠陥に対処することは、統合とクラスタリングを同時に行うことで、ディープラーニングベースのscrna-seq分析に大きなメリットがある。
我々は、vampprior (tomczak & welling, 2018) をdirichlet process gaussian mixed modelに適応させ、dlvmsに先立つ新しいvampprior mixed model (vmm) を実現した。
本稿では,変分推論と経験ベイズを交互に交互に推定し,変分パラメータと先行パラメータをきれいに区別する手法を提案する。
変分オートコーダでVMMを使用すると、ベンチマークデータセット上で非常に競争力のあるクラスタリング性能が得られる。
Augmenting scVI (Lopez et al., 2018), a popular scRNA-seq integration method, with the VMMは、その性能を著しく改善し、細胞を生物学的に意味のあるクラスターに自動的に配置する。
関連論文リスト
- Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - IB-GAN: A Unified Approach for Multivariate Time Series Classification
under Class Imbalance [1.854931308524932]
GAN(Generative Adversarial Networks)による非パラメトリックデータ拡張は、有望なソリューションを提供する。
本稿では,データ拡張と分類を1段階のプロセスで結合する新しい手法であるImputation Balanced GAN(IB-GAN)を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:31:16Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Faster SVM Training via Conjugate SMO [0.0]
本稿では,SMOアルゴリズムの改良版を提案する。
この新しいアプローチは、各イテレーションの計算コストをわずかに増加させるだけである。
我々は、この新しい共役SMOの反復の収束と、カーネル行列が正定値であるときの線形速度を証明した。
論文 参考訳(メタデータ) (2020-03-19T12:50:13Z) - A Robust Speaker Clustering Method Based on Discrete Tied Variational
Autoencoder [27.211505187332385]
集約階層クラスタ(AHC)に基づく従来の話者クラスタリング手法は、長時間実行の欠点があり、環境騒音に敏感である。
本稿では,相互情報(MI)に基づく新しい話者クラスタリング手法と,雑音に対するロバスト性を高めるためにタイド変分オートエンコーダ(TVAE)の啓蒙の下で,離散変数を持つ非線形モデルを提案する。
論文 参考訳(メタデータ) (2020-03-04T08:54:38Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。