論文の概要: Deep Embedded K-Means Clustering
- arxiv url: http://arxiv.org/abs/2109.15149v1
- Date: Thu, 30 Sep 2021 14:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 19:51:00.703747
- Title: Deep Embedded K-Means Clustering
- Title(参考訳): 組み込みK-Meansクラスタリング
- Authors: Wengang Guo, Kaiyan Lin, Wei Ye
- Abstract要約: 主な考え方は、表現学習とクラスタリングが相互に強化できることだ。
本稿では,この2つの疑問に答えるために,DeKM(Deep Embedded K-Means)を提案する。
実世界のデータセットに関する実験結果は、DECMが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 1.5697094704362897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep clustering methods have gained momentum because of the high
representational power of deep neural networks (DNNs) such as autoencoder. The
key idea is that representation learning and clustering can reinforce each
other: Good representations lead to good clustering while good clustering
provides good supervisory signals to representation learning. Critical
questions include: 1) How to optimize representation learning and clustering?
2) Should the reconstruction loss of autoencoder be considered always? In this
paper, we propose DEKM (for Deep Embedded K-Means) to answer these two
questions. Since the embedding space generated by autoencoder may have no
obvious cluster structures, we propose to further transform the embedding space
to a new space that reveals the cluster-structure information. This is achieved
by an orthonormal transformation matrix, which contains the eigenvectors of the
within-class scatter matrix of K-means. The eigenvalues indicate the importance
of the eigenvectors' contributions to the cluster-structure information in the
new space. Our goal is to increase the cluster-structure information. To this
end, we discard the decoder and propose a greedy method to optimize the
representation. Representation learning and clustering are alternately
optimized by DEKM. Experimental results on the real-world datasets demonstrate
that DEKM achieves state-of-the-art performance.
- Abstract(参考訳): 近年,オートエンコーダなどのディープニューラルネットワーク(DNN)の高表現力により,ディープクラスタリング手法が勢いを増している。
優れた表現が優れたクラスタリングにつながる一方で、優れたクラスタリングは表現学習のための優れた監視信号を提供します。
重要な疑問は
1)表現学習とクラスタリングをどのように最適化するか。
2)オートエンコーダの再構成損失は常に考慮すべきか?
本稿では,この2つの疑問に答えるため,DeKM(Deep Embedded K-Means)を提案する。
オートエンコーダが生成する埋め込み空間には明らかなクラスタ構造が存在しないため,埋め込み空間をクラスタ構造情報を明らかにする新しい空間に変換することを提案する。
これは、K-平均のクラス内散乱行列の固有ベクトルを含む正則変換行列によって達成される。
固有値は新しい空間におけるクラスター構造情報に対する固有ベクトルの寄与の重要性を示している。
私たちの目標はクラスタ構造情報を増やすことです。
この目的のために,デコーダを廃止し,表現を最適化するための欲求的手法を提案する。
表現学習とクラスタリングは、DECMによって交互に最適化される。
実世界のデータセットの実験結果は、DECMが最先端のパフォーマンスを達成することを示す。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Deep Double Self-Expressive Subspace Clustering [7.875193047472789]
二重自己表現型サブスペースクラスタリングアルゴリズムを提案する。
提案アルゴリズムは最先端手法よりも優れたクラスタリングを実現することができる。
論文 参考訳(メタデータ) (2023-06-20T15:10:35Z) - Multi-View Clustering via Semi-non-negative Tensor Factorization [120.87318230985653]
半負のテンソル因子分解(Semi-NTF)に基づく新しいマルチビュークラスタリングを開発する。
本モデルは、ビュー間の関係を直接考慮し、ビュー間の補完情報を利用する。
さらに,提案手法の最適化アルゴリズムを提案し,そのアルゴリズムが常に定常KKT点に収束することを数学的に証明する。
論文 参考訳(メタデータ) (2023-03-29T14:54:19Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Structural Deep Clustering Network [45.370272344031285]
本研究では,構造情報を深層クラスタリングに統合する構造深層クラスタリングネットワーク(SDCN)を提案する。
具体的には、オートエンコーダが学習した表現を対応するGCN層に転送するデリバリ演算子を設計する。
このように、低次から高次までの複数のデータ構造は、オートエンコーダによって学習された複数の表現と自然に結合される。
論文 参考訳(メタデータ) (2020-02-05T04:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。