論文の概要: Dissimilarity Mixture Autoencoder for Deep Clustering
- arxiv url: http://arxiv.org/abs/2006.08177v4
- Date: Thu, 15 Jul 2021 16:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:21:06.937666
- Title: Dissimilarity Mixture Autoencoder for Deep Clustering
- Title(参考訳): 深部クラスタリングのための異種混合オートエンコーダ
- Authors: Juan S. Lara, Fabio A. Gonz\'alez
- Abstract要約: 異種混合オートエンコーダ(DMAE)は、特徴ベースのクラスタリングのためのニューラルネットワークモデルである。
DMAEはディープラーニングアーキテクチャをエンドツーエンドモデルに統合することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dissimilarity mixture autoencoder (DMAE) is a neural network model for
feature-based clustering that incorporates a flexible dissimilarity function
and can be integrated into any kind of deep learning architecture. It
internally represents a dissimilarity mixture model (DMM) that extends
classical methods like K-Means, Gaussian mixture models, or Bregman clustering
to any convex and differentiable dissimilarity function through the
reinterpretation of probabilities as neural network representations. DMAE can
be integrated with deep learning architectures into end-to-end models, allowing
the simultaneous estimation of the clustering and neural network's parameters.
Experimental evaluation was performed on image and text clustering benchmark
datasets showing that DMAE is competitive in terms of unsupervised
classification accuracy and normalized mutual information. The source code with
the implementation of DMAE is publicly available at:
https://github.com/juselara1/dmae
- Abstract(参考訳): 異種混合オートエンコーダ(DMAE)は、フレキシブルな異種関数を組み込んだ機能ベースのクラスタリングのためのニューラルネットワークモデルであり、あらゆる種類のディープラーニングアーキテクチャに統合することができる。
内部では、k-平均、ガウス混合モデル、ブレグマンクラスタリングのような古典的手法を、任意の凸および微分可能な異種性関数に拡張し、確率をニューラルネットワーク表現として再解釈する、異種混合モデル(dmm)を表す。
DMAEはディープラーニングアーキテクチャをエンドツーエンドモデルに統合することで、クラスタリングとニューラルネットワークのパラメータの同時推定を可能にする。
DMAEは教師なし分類精度と正規化相互情報の両面で競合していることを示す画像およびテキストクラスタリングベンチマークデータセットで実験的に評価した。
DMAEを実装したソースコードは、https://github.com/juselara1/dmaeで公開されている。
関連論文リスト
- Classifying Overlapping Gaussian Mixtures in High Dimensions: From Optimal Classifiers to Neural Nets [1.8434042562191815]
高次元重なり合うガウス混合モデル(GMM)データのバイナリ分類におけるベイズ最適決定境界の式を導出する。
我々は、実世界のデータにインスパイアされた合成GMMの実験を通じて、分類のために訓練されたディープニューラルネットワークが、導出した最適な分類器を近似する予測器を学習することを実証的に実証した。
論文 参考訳(メタデータ) (2024-05-28T17:59:31Z) - A Hybrid of Generative and Discriminative Models Based on the
Gaussian-coupled Softmax Layer [5.33024001730262]
本稿では,1つのニューラルネットワークにおける識別モデルと生成モデルのハイブリッドを学習する手法を提案する。
提案手法を半教師付き学習と信頼性校正に適用できることを実証する。
論文 参考訳(メタデータ) (2023-05-10T05:48:22Z) - Clustering with Neural Network and Index [0.0]
CNNI(Clustering with Neural Network and Index)と呼ばれる新しいモデルが導入されている。
CNNIはニューラルネットワークを使用してデータポイントをクラスタリングし、内部クラスタリング評価インデックスが損失関数として機能する。
論文 参考訳(メタデータ) (2022-12-05T12:33:26Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Mixture Model Auto-Encoders: Deep Clustering through Dictionary Learning [72.9458277424712]
Mixture Model Auto-Encoders (MixMate)は、生成モデルで推論を実行することでデータをクラスタリングする新しいアーキテクチャである。
最先端のディープクラスタリングアルゴリズムと比較して,MixMateは競争性能が高いことを示す。
論文 参考訳(メタデータ) (2021-10-10T02:30:31Z) - Normalizing Flow based Hidden Markov Models for Classification of Speech
Phones with Explainability [25.543231171094384]
説明可能性を求めるため,逐次データ生成モデルを開発した。
我々は、現代のニューラルネットワーク(正規化フロー)と伝統的な生成モデル(隠れマルコフモデル - HMM)を組み合わせる。
提案した生成モデルは、データの可能性を計算することができ、従って、最大形分類法(ML)に直接適合する。
論文 参考訳(メタデータ) (2021-07-01T20:10:55Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。