論文の概要: Maximum Entropy Subspace Clustering Network
- arxiv url: http://arxiv.org/abs/2012.03176v1
- Date: Sun, 6 Dec 2020 03:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 08:56:31.185798
- Title: Maximum Entropy Subspace Clustering Network
- Title(参考訳): 最大エントロピー部分空間クラスタリングネットワーク
- Authors: Zhihao Peng, Yuheng Jia, Hui Liu, Junhui Hou, Qingfu Zhang
- Abstract要約: 最大エントロピー部分空間クラスタリングネットワーク(MESC-Net)という,ディープラーニングに基づくクラスタリング手法を提案する。
MESC-Netは学習された親和性行列のエントロピーを最大化し、理想的な親和性行列構造を示すように促す。
実験により,同じ部分空間に対応する要素が一様かつ高密度に分散していることが示され,クラスタリング性能が向上した。
- 参考スコア(独自算出の注目度): 46.96462192586944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep subspace clustering network (DSC-Net) and its numerous variants have
achieved impressive performance for subspace clustering, in which an
auto-encoder non-linearly maps input data into a latent space, and a fully
connected layer named self-expressiveness module is introduced between the
encoder and the decoder to learn an affinity matrix. However, the adopted
regularization on the affinity matrix (e.g., sparse, Tikhonov, or low-rank) is
still insufficient to drive the learning of an ideal affinity matrix, thus
limiting their performance. In addition, in DSC-Net, the self-expressiveness
module and the auto-encoder module are tightly coupled, making the training of
the DSC-Net non-trivial. To this end, in this paper, we propose a novel deep
learning-based clustering method named Maximum Entropy Subspace Clustering
Network (MESC-Net). Specifically, MESC-Net maximizes the learned affinity
matrix's entropy to encourage it to exhibit an ideal affinity matrix structure.
We theoretically prove that the affinity matrix driven by MESC-Net obeys the
block-diagonal property, and experimentally show that its elements
corresponding to the same subspace are uniformly and densely distributed, which
gives better clustering performance. Moreover, we explicitly decouple the
auto-encoder module and the self-expressiveness module. Extensive quantitative
and qualitative results on commonly used benchmark datasets validate MESC-Net
significantly outperforms state-of-the-art methods.
- Abstract(参考訳): ディープサブスペースクラスタリングネットワーク(dsc-net)とその多くの変種は、サブスペースクラスタリングにおいて印象的な性能を達成しており、オートエンコーダが入力データを潜在空間に非線形にマッピングし、エンコーダとデコーダの間に自己表現性モジュールと呼ばれる完全接続層を導入し、親和性行列を学ぶ。
しかし、アフィニティ行列(例えば、スパース、チホノフ、ローランク)上で採用されている正則化は、理想的なアフィニティ行列の学習を駆動するのにはまだ不十分であり、その性能を制限している。
さらに、DSC-Netでは、自己表現モジュールとオートエンコーダモジュールを密結合し、DSC-Netのトレーニングを非自明にする。
そこで,本稿では,最大エントロピー部分空間クラスタリングネットワーク(mesc-net)と呼ばれる深層学習に基づくクラスタリング手法を提案する。
具体的には、MESC-Netは学習された親和性行列のエントロピーを最大化し、理想的な親和性行列構造を示すように促す。
我々は,MESC-Netにより駆動される親和性行列がブロック対角特性に従うことを理論的に証明し,同じ部分空間に対応する要素が一様かつ高密度に分布していることを示す。
さらに,自動エンコーダモジュールと自己表現モジュールを明示的に分離する。
一般的なベンチマークデータセットの広範囲な量的、質的な結果 mesc-net は最先端の手法を大きく上回っている。
関連論文リスト
- Hierarchical Multiple Kernel K-Means Algorithm Based on Sparse Connectivity [6.524937526547959]
本稿では,スパース接続に基づく階層型マルチカーネルK-Means (SCHMKKM) アルゴリズムを提案する。
より離散的な情報融合は、より一貫性のある分割行列を学習するのに有益であることが示されている。
論文 参考訳(メタデータ) (2024-10-27T09:35:09Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Deep Double Self-Expressive Subspace Clustering [7.875193047472789]
二重自己表現型サブスペースクラスタリングアルゴリズムを提案する。
提案アルゴリズムは最先端手法よりも優れたクラスタリングを実現することができる。
論文 参考訳(メタデータ) (2023-06-20T15:10:35Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Adaptive Attribute and Structure Subspace Clustering Network [49.040136530379094]
自己表現型サブスペースクラスタリングネットワークを提案する。
まず、入力データサンプルを表現する自動エンコーダについて検討する。
そこで我々は, 局所的な幾何学的構造を捉えるために, 混合符号と対称構造行列を構築した。
構築された属性構造と行列に対して自己表現を行い、親和性グラフを学習する。
論文 参考訳(メタデータ) (2021-09-28T14:00:57Z) - Multiple Kernel Representation Learning on Networks [12.106994960669924]
ネットワークのノードに関するランダムな歩行に基づく情報を符号化する重み付き行列分解モデルを提案する。
我々は、カーネルの辞書の線形結合としてカーネルを学習する柔軟性を提供する複数のカーネル学習定式化により、アプローチを拡張した。
論文 参考訳(メタデータ) (2021-06-09T13:22:26Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。