論文の概要: Maximum Entropy Subspace Clustering Network
- arxiv url: http://arxiv.org/abs/2012.03176v1
- Date: Sun, 6 Dec 2020 03:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 08:56:31.185798
- Title: Maximum Entropy Subspace Clustering Network
- Title(参考訳): 最大エントロピー部分空間クラスタリングネットワーク
- Authors: Zhihao Peng, Yuheng Jia, Hui Liu, Junhui Hou, Qingfu Zhang
- Abstract要約: 最大エントロピー部分空間クラスタリングネットワーク(MESC-Net)という,ディープラーニングに基づくクラスタリング手法を提案する。
MESC-Netは学習された親和性行列のエントロピーを最大化し、理想的な親和性行列構造を示すように促す。
実験により,同じ部分空間に対応する要素が一様かつ高密度に分散していることが示され,クラスタリング性能が向上した。
- 参考スコア(独自算出の注目度): 46.96462192586944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep subspace clustering network (DSC-Net) and its numerous variants have
achieved impressive performance for subspace clustering, in which an
auto-encoder non-linearly maps input data into a latent space, and a fully
connected layer named self-expressiveness module is introduced between the
encoder and the decoder to learn an affinity matrix. However, the adopted
regularization on the affinity matrix (e.g., sparse, Tikhonov, or low-rank) is
still insufficient to drive the learning of an ideal affinity matrix, thus
limiting their performance. In addition, in DSC-Net, the self-expressiveness
module and the auto-encoder module are tightly coupled, making the training of
the DSC-Net non-trivial. To this end, in this paper, we propose a novel deep
learning-based clustering method named Maximum Entropy Subspace Clustering
Network (MESC-Net). Specifically, MESC-Net maximizes the learned affinity
matrix's entropy to encourage it to exhibit an ideal affinity matrix structure.
We theoretically prove that the affinity matrix driven by MESC-Net obeys the
block-diagonal property, and experimentally show that its elements
corresponding to the same subspace are uniformly and densely distributed, which
gives better clustering performance. Moreover, we explicitly decouple the
auto-encoder module and the self-expressiveness module. Extensive quantitative
and qualitative results on commonly used benchmark datasets validate MESC-Net
significantly outperforms state-of-the-art methods.
- Abstract(参考訳): ディープサブスペースクラスタリングネットワーク(dsc-net)とその多くの変種は、サブスペースクラスタリングにおいて印象的な性能を達成しており、オートエンコーダが入力データを潜在空間に非線形にマッピングし、エンコーダとデコーダの間に自己表現性モジュールと呼ばれる完全接続層を導入し、親和性行列を学ぶ。
しかし、アフィニティ行列(例えば、スパース、チホノフ、ローランク)上で採用されている正則化は、理想的なアフィニティ行列の学習を駆動するのにはまだ不十分であり、その性能を制限している。
さらに、DSC-Netでは、自己表現モジュールとオートエンコーダモジュールを密結合し、DSC-Netのトレーニングを非自明にする。
そこで,本稿では,最大エントロピー部分空間クラスタリングネットワーク(mesc-net)と呼ばれる深層学習に基づくクラスタリング手法を提案する。
具体的には、MESC-Netは学習された親和性行列のエントロピーを最大化し、理想的な親和性行列構造を示すように促す。
我々は,MESC-Netにより駆動される親和性行列がブロック対角特性に従うことを理論的に証明し,同じ部分空間に対応する要素が一様かつ高密度に分布していることを示す。
さらに,自動エンコーダモジュールと自己表現モジュールを明示的に分離する。
一般的なベンチマークデータセットの広範囲な量的、質的な結果 mesc-net は最先端の手法を大きく上回っている。
関連論文リスト
- Deep Double Self-Expressive Subspace Clustering [7.875193047472789]
二重自己表現型サブスペースクラスタリングアルゴリズムを提案する。
提案アルゴリズムは最先端手法よりも優れたクラスタリングを実現することができる。
論文 参考訳(メタデータ) (2023-06-20T15:10:35Z) - K-Tensors: Clustering Positive Semi-Definite Matrices [0.0]
K$-Tensorsは正の半定値行列を固有構造によってクラスタリングするために設計された自己整合クラスタリングアルゴリズムである。
K$-Tensors は自己整合であるだけでなく、局所最適化に確実に収束することを示した。
論文 参考訳(メタデータ) (2023-06-10T22:24:42Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Adaptive Attribute and Structure Subspace Clustering Network [49.040136530379094]
自己表現型サブスペースクラスタリングネットワークを提案する。
まず、入力データサンプルを表現する自動エンコーダについて検討する。
そこで我々は, 局所的な幾何学的構造を捉えるために, 混合符号と対称構造行列を構築した。
構築された属性構造と行列に対して自己表現を行い、親和性グラフを学習する。
論文 参考訳(メタデータ) (2021-09-28T14:00:57Z) - Multiple Kernel Representation Learning on Networks [12.106994960669924]
ネットワークのノードに関するランダムな歩行に基づく情報を符号化する重み付き行列分解モデルを提案する。
我々は、カーネルの辞書の線形結合としてカーネルを学習する柔軟性を提供する複数のカーネル学習定式化により、アプローチを拡張した。
論文 参考訳(メタデータ) (2021-06-09T13:22:26Z) - Self-supervised Symmetric Nonnegative Matrix Factorization [82.59905231819685]
シンメトリー非負係数行列(SNMF)は、データクラスタリングの強力な方法であることを示した。
より良いクラスタリング結果を求めるアンサンブルクラスタリングにインスパイアされた,自己監視型SNMF(S$3$NMF)を提案する。
SNMFのコード特性に対する感度を、追加情報に頼らずに活用しています。
論文 参考訳(メタデータ) (2021-03-02T12:47:40Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。