論文の概要: Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification
- arxiv url: http://arxiv.org/abs/2004.03375v1
- Date: Fri, 3 Apr 2020 16:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 03:43:12.475832
- Title: Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification
- Title(参考訳): サブスペースクラスタリングと分類のためのロバスト自己監視畳み込みニューラルネットワーク
- Authors: Dario Sitnik and Ivica Kopriva
- Abstract要約: 本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
- 参考スコア(独自算出の注目度): 0.10152838128195464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insufficient capability of existing subspace clustering methods to handle
data coming from nonlinear manifolds, data corruptions, and out-of-sample data
hinders their applicability to address real-world clustering and classification
problems. This paper proposes the robust formulation of the self-supervised
convolutional subspace clustering network ($S^2$ConvSCN) that incorporates the
fully connected (FC) layer and, thus, it is capable for handling out-of-sample
data by classifying them using a softmax classifier. $S^2$ConvSCN clusters data
coming from nonlinear manifolds by learning the linear self-representation
model in the feature space. Robustness to data corruptions is achieved by using
the correntropy induced metric (CIM) of the error. Furthermore, the
block-diagonal (BD) structure of the representation matrix is enforced
explicitly through BD regularization. In a truly unsupervised training
environment, Robust $S^2$ConvSCN outperforms its baseline version by a
significant amount for both seen and unseen data on four well-known datasets.
Arguably, such an ablation study has not been reported before.
- Abstract(参考訳): 非線形多様体やデータ破損,サンプル外データから得られるデータを扱うための,既存のサブスペースクラスタリング手法の不十分な能力は,実世界のクラスタリングや分類問題への対処を妨げている。
本稿では,完全連結(FC)層を組み込んだ自己教師型畳み込みサブスペースクラスタリングネットワーク(S^2$ConvSCN)のロバストな定式化を提案する。
S^2$ConvSCN クラスタデータは、特徴空間における線形自己表現モデルを学ぶことによって非線形多様体から得られる。
データ破損に対するロバスト性は、誤差のコレントロピー誘導計量(CIM)を用いて達成される。
さらに、表現行列のブロック対角構造(BD)は、BD正規化によって明示的に強制される。
真の教師なしのトレーニング環境では、Robust $S^2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
このようなアブレーション研究はこれまで報告されていない。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Sanitized Clustering against Confounding Bias [38.928080236294775]
本稿では,共起バイアスに対する衛生クラスタリング(SCAB)という新しいクラスタリングフレームワークを提案する。
SCABは、非線型依存尺度を通じて、複素データのセマンティック潜在空間における境界要素を除去する。
複雑なデータセットの実験は、SCABがクラスタリングのパフォーマンスにおいて大きな向上を達成していることを示している。
論文 参考訳(メタデータ) (2023-11-02T14:10:14Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - T-SNE Is Not Optimized to Reveal Clusters in Data [4.03823460330412]
データ解析ツールとしての非線形次元低減には,クラスタ可視化が不可欠である。
学生t-Distributed Neighbor Embedding (t-SNE) は、よくクラスタ可能なデータに対してクラスタを表示することができるとよく信じられている。
データに強い信号があるにもかかわらず、t-SNEはクラスタリングパターンを隠蔽する可能性がある。
論文 参考訳(メタデータ) (2021-10-06T08:35:39Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - A Critique of Self-Expressive Deep Subspace Clustering [23.971512395191308]
サブスペースクラスタリング(Subspace clustering)は、線形サブスペースの和集合上でサポートされているデータをクラスタリングするために設計された、教師なしクラスタリング技術である。
従来の作業では適切に対処されていなかったこのアプローチには,潜在的な欠陥がいくつかあることを示す。
論文 参考訳(メタデータ) (2020-10-08T00:14:59Z) - Learning Self-Expression Metrics for Scalable and Inductive Subspace
Clustering [5.587290026368626]
サブスペースクラスタリングは、高次元データをクラスタリングするための最先端のアプローチとして確立されている。
本研究では,シアムニューラルネットワークアーキテクチャを用いて,サブスペース親和性関数を学習するための新しい距離学習手法を提案する。
我々のモデルは、パラメータの一定数とメモリフットプリントの恩恵を受けており、かなり大きなデータセットにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-27T15:40:12Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。