論文の概要: Joint Optimization of an Autoencoder for Clustering and Embedding
- arxiv url: http://arxiv.org/abs/2012.03740v2
- Date: Sat, 1 May 2021 20:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:46:32.009166
- Title: Joint Optimization of an Autoencoder for Clustering and Embedding
- Title(参考訳): クラスタリングと埋め込みのためのオートエンコーダの共同最適化
- Authors: Ahc\`ene Boubekki, Michael Kampffmeyer, Robert Jenssen, Ulf Brefeld
- Abstract要約: 本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
- 参考スコア(独自算出の注目度): 22.16059261437617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep embedded clustering has become a dominating approach to unsupervised
categorization of objects with deep neural networks. The optimization of the
most popular methods alternates between the training of a deep autoencoder and
a k-means clustering of the autoencoder's embedding. The diachronic setting,
however, prevents the former to benefit from valuable information acquired by
the latter. In this paper, we present an alternative where the autoencoder and
the clustering are learned simultaneously. This is achieved by providing novel
theoretical insight, where we show that the objective function of a certain
class of Gaussian mixture models (GMMs) can naturally be rephrased as the loss
function of a one-hidden layer autoencoder thus inheriting the built-in
clustering capabilities of the GMM. That simple neural network, referred to as
the clustering module, can be integrated into a deep autoencoder resulting in a
deep clustering model able to jointly learn a clustering and an embedding.
Experiments confirm the equivalence between the clustering module and Gaussian
mixture models. Further evaluations affirm the empirical relevance of our deep
architecture as it outperforms related baselines on several data sets.
- Abstract(参考訳): deep embedded clusteringは、ディープニューラルネットワークによるオブジェクトの教師なし分類への支配的アプローチとなっている。
最も一般的な手法の最適化は、ディープオートエンコーダのトレーニングとオートエンコーダの埋め込みのk平均クラスタリングとを交互に行う。
しかし、ダイアクロニック設定は、前者が後者が取得した貴重な情報から利益を得るのを防ぐ。
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
これは新しい理論的な洞察を提供することによって実現され、GMMの組込みクラスタリング機能を継承する一層オートエンコーダの損失関数として、ある種のガウス混合モデル(GMM)の目的関数を自然に記述できることが示される。
この単純なニューラルネットワークは、クラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合することができ、それによって、クラスタリングと組み込みを共同学習できるディープクラスタリングモデルが実現される。
実験はクラスタリングモジュールとガウス混合モデルとの等価性を確認する。
さらなる評価は、いくつかのデータセットで関連するベースラインを上回るため、我々のディープアーキテクチャの実証的妥当性を肯定する。
関連論文リスト
- Transferable Deep Clustering Model [14.073783373395196]
本稿では,データサンプルの分布に応じてクラスタセントロイドを自動的に適応できる,転送可能な新しいディープクラスタリングモデルを提案する。
提案手法では, 試料との関係を計測することで, センチロイドを適応できる新しい注意型モジュールを提案する。
合成および実世界の両方のデータセットに対する実験結果から,提案した移動学習フレームワークの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-07T23:35:17Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Deep clustering with fusion autoencoder [0.0]
ディープクラスタリング(DC)モデルは、オートエンコーダを利用して、結果としてクラスタリングプロセスを促進する固有の特徴を学ぶ。
本稿では、この問題に対処するための新しいDC法を提案し、特に、生成逆数ネットワークとVAEを融合オートエンコーダ(FAE)と呼ばれる新しいオートエンコーダに結合する。
論文 参考訳(メタデータ) (2022-01-11T07:38:03Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Mixture Model Auto-Encoders: Deep Clustering through Dictionary Learning [72.9458277424712]
Mixture Model Auto-Encoders (MixMate)は、生成モデルで推論を実行することでデータをクラスタリングする新しいアーキテクチャである。
最先端のディープクラスタリングアルゴリズムと比較して,MixMateは競争性能が高いことを示す。
論文 参考訳(メタデータ) (2021-10-10T02:30:31Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Augmented Data as an Auxiliary Plug-in Towards Categorization of
Crowdsourced Heritage Data [2.609784101826762]
本稿では,データ拡張を補助プラグインとして導入することで,非効率なクラスタリング性能の問題を緩和する戦略を提案する。
我々は、深層クラスタリングのための新しいモデルとして初期特徴空間を構築するために、拡張データを用いた畳み込みオートエンコーダ(CAE)の変種を訓練する。
論文 参考訳(メタデータ) (2021-07-08T14:09:39Z) - Deep adaptive fuzzy clustering for evolutionary unsupervised
representation learning [2.8028128734158164]
大規模で複雑な画像のクラスタ割り当ては、パターン認識とコンピュータビジョンにおいて重要かつ困難な作業です。
反復最適化による新しい進化的教師なし学習表現モデルを提案する。
ファジィメンバシップを利用して深層クラスタ割り当ての明確な構造を表現するディープリコンストラクションモデルに対して,共同でファジィクラスタリングを行った。
論文 参考訳(メタデータ) (2021-03-31T13:58:10Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Dissimilarity Mixture Autoencoder for Deep Clustering [0.0]
異種混合オートエンコーダ(DMAE)は、特徴ベースのクラスタリングのためのニューラルネットワークモデルである。
DMAEはディープラーニングアーキテクチャをエンドツーエンドモデルに統合することができる。
論文 参考訳(メタデータ) (2020-06-15T07:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。