論文の概要: Overcomplete Deep Subspace Clustering Networks
- arxiv url: http://arxiv.org/abs/2011.08306v1
- Date: Mon, 16 Nov 2020 22:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:48:32.636446
- Title: Overcomplete Deep Subspace Clustering Networks
- Title(参考訳): オーバーコンプリート深部宇宙クラスタリングネットワーク
- Authors: Jeya Maria Jose Valanarasu, Vishal M. Patel
- Abstract要約: 4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
- 参考スコア(独自算出の注目度): 80.16644725886968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Subspace Clustering Networks (DSC) provide an efficient solution to the
problem of unsupervised subspace clustering by using an undercomplete deep
auto-encoder with a fully-connected layer to exploit the self expressiveness
property. This method uses undercomplete representations of the input data
which makes it not so robust and more dependent on pre-training. To overcome
this, we propose a simple yet efficient alternative method - Overcomplete Deep
Subspace Clustering Networks (ODSC) where we use overcomplete representations
for subspace clustering. In our proposed method, we fuse the features from both
undercomplete and overcomplete auto-encoder networks before passing them
through the self-expressive layer thus enabling us to extract a more meaningful
and robust representation of the input data for clustering. Experimental
results on four benchmark datasets show the effectiveness of the proposed
method over DSC and other clustering methods in terms of clustering error. Our
method is also not as dependent as DSC is on where pre-training should be
stopped to get the best performance and is also more robust to noise. Code -
\href{https://github.com/jeya-maria-jose/Overcomplete-Deep-Subspace-Clustering}{https://github.com/jeya-maria-jose/Overcomplete-Deep-Subspace-Clustering
- Abstract(参考訳): ディープサブスペースクラスタリングネットワーク(dsc)は、完全接続層を持つ未完成のディープオートエンコーダを使用して自己表現性を利用することにより、教師なしサブスペースクラスタリングの問題に対する効率的な解決策を提供する。
この方法は入力データの不完全な表現を使用するため、あまり堅牢ではなく、事前トレーニングに依存する。
これを解決するために,オーバーコンプリート・サブスペース・クラスタリング・ネットワーク(ODSC)という単純な代替手法を提案し,サブスペース・クラスタリングにオーバーコンプリート表現を用いる。
提案手法では,自己表現層を通過する前に,不完全かつ過完全なオートエンコーダネットワークから機能を融合することで,クラスタ化のための入力データのより有意義でロバストな表現を抽出できる。
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
提案手法は,最高の性能を得るために事前学習を停止すべき場所や,雑音に対してより頑健なdsc法ほど依存しない。
Code\href{https://github.com/jeya-maria-jose/Overcomplete-Deep-Subspace-Clustering}{https://github.com/jeya-maria-jose/Overcomplete-Deep-Subspace-Clustering
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Multilayer Graph Approach to Deep Subspace Clustering [0.0]
自己表現型モデル学習表現行列に基づくディープサブスペースクラスタリング(DSC)ネットワークは、完全に接続されたネットワークで実装されることが多い。
本稿では,入力データを含むエンコーダネットワークの全層から学習した表現から,選択した線形部分空間クラスタリングアルゴリズムを用いて表現を学習する。
ベースラインモデルとして2つのDSCネットワークを持つ4つのよく知られたデータセットに対して,提案手法を検証した。
論文 参考訳(メタデータ) (2024-01-30T14:09:41Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - AutoEmbedder: A semi-supervised DNN embedding system for clustering [0.0]
本稿では,高次元データをクラスタリング可能な埋め込みポイントにダウンサンプリングする,AutoEmbedderという新しい埋め込みシステムを提案する。
トレーニングプロセスは半教師付きで、Siameseネットワークアーキテクチャを使用して、機能学習フェーズにおけるペアワイズ制約損失を計算します。
論文 参考訳(メタデータ) (2020-07-11T19:00:45Z) - Learnable Subspace Clustering [76.2352740039615]
本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
論文 参考訳(メタデータ) (2020-04-09T12:53:28Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。