論文の概要: A Critique of Self-Expressive Deep Subspace Clustering
- arxiv url: http://arxiv.org/abs/2010.03697v2
- Date: Fri, 19 Mar 2021 20:33:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:05:16.519722
- Title: A Critique of Self-Expressive Deep Subspace Clustering
- Title(参考訳): 自己表現型深部宇宙クラスタリングの批判
- Authors: Benjamin D. Haeffele, Chong You, Ren\'e Vidal
- Abstract要約: サブスペースクラスタリング(Subspace clustering)は、線形サブスペースの和集合上でサポートされているデータをクラスタリングするために設計された、教師なしクラスタリング技術である。
従来の作業では適切に対処されていなかったこのアプローチには,潜在的な欠陥がいくつかあることを示す。
- 参考スコア(独自算出の注目度): 23.971512395191308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subspace clustering is an unsupervised clustering technique designed to
cluster data that is supported on a union of linear subspaces, with each
subspace defining a cluster with dimension lower than the ambient space. Many
existing formulations for this problem are based on exploiting the
self-expressive property of linear subspaces, where any point within a subspace
can be represented as linear combination of other points within the subspace.
To extend this approach to data supported on a union of non-linear manifolds,
numerous studies have proposed learning an embedding of the original data using
a neural network which is regularized by a self-expressive loss function on the
data in the embedded space to encourage a union of linear subspaces prior on
the data in the embedded space. Here we show that there are a number of
potential flaws with this approach which have not been adequately addressed in
prior work. In particular, we show the model formulation is often ill-posed in
that it can lead to a degenerate embedding of the data, which need not
correspond to a union of subspaces at all and is poorly suited for clustering.
We validate our theoretical results experimentally and also repeat prior
experiments reported in the literature, where we conclude that a significant
portion of the previously claimed performance benefits can be attributed to an
ad-hoc post processing step rather than the deep subspace clustering model.
- Abstract(参考訳): サブスペースクラスタリング(英: subspace clustering)は、線形部分空間の結合上でサポートされているデータをクラスタ化するために設計された教師なしクラスタリング技術である。
この問題に対する既存の多くの定式化は、線型部分空間の自己表現性を利用しており、部分空間内の任意の点を部分空間内の他の点の線型結合として表現することができる。
このアプローチを非線形多様体の和集合上で支持するデータに拡張するために、埋め込み空間のデータに自己表現的損失関数によって正規化されるニューラルネットワークを用いて元のデータの埋め込みを学習し、埋め込み空間のデータに先立って線形部分空間の結合を促進することを提案した。
ここでは、事前の作業で適切に対処されていないこのアプローチには、潜在的な欠陥がいくつかあることを示す。
特に、モデルの定式化は、部分空間の結合に全く対応せず、クラスタリングにはあまり適さない、データの退化埋め込みにつながる可能性があるため、しばしば不適切であることを示している。
実験の結果を検証し,本論文で報告した実験を繰り返すとともに,従来主張されていた性能向上のかなりの部分は,深部サブスペースクラスタリングモデルではなく,アドホックなポストプロセッシングステップによるものであると結論付けた。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Linking data separation, visual separation, and classifier performance
using pseudo-labeling by contrastive learning [125.99533416395765]
最終分類器の性能は、潜在空間に存在するデータ分離と、射影に存在する視覚的分離に依存すると論じる。
本研究は,ヒト腸管寄生虫の5つの現実的課題の画像データセットを1%の教師付きサンプルで分類し,その結果を実証する。
論文 参考訳(メタデータ) (2023-02-06T10:01:38Z) - Unsupervised Manifold Linearizing and Clustering [19.879641608165887]
本稿では、データ表現と2重クラスタメンバシップの両方に関して、最大符号化削減度を最適化することを提案する。
CIFAR-10, -20, -100, TinyImageNet-200データセットに対する実験により,提案手法は最先端のディープクラスタリング手法よりもはるかに正確でスケーラブルであることが示された。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Beyond Linear Subspace Clustering: A Comparative Study of Nonlinear
Manifold Clustering Algorithms [22.564682739914424]
サブスペースクラスタリングは、教師なしクラスタリングの重要なアプローチである。
本稿では,最先端のアプローチを局所保存,カーネルベース,ニューラルネットワークの3つのカテゴリに分類する新しい分類法を提案する。
これらのアプローチの詳細な分析は、この分野の潜在的な研究の方向性と未解決の課題を広げます。
論文 参考訳(メタデータ) (2021-03-19T06:34:34Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Is an Affine Constraint Needed for Affine Subspace Clustering? [27.00532615975731]
コンピュータビジョンアプリケーションでは、サブスペースは線形であり、サブスペースクラスタリング法を直接適用することができる。
運動セグメンテーションでは、部分空間はアフィンであり、係数に対する追加のアフィン制約はしばしば強制される。
本稿では,アフィン空間の次元がアフィン部分空間の次元の和に対して高い場合,アフィン制約がクラスタリング性能に無視できない効果を持つことを示す。
論文 参考訳(メタデータ) (2020-05-08T07:52:17Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z) - Learnable Subspace Clustering [76.2352740039615]
本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
論文 参考訳(メタデータ) (2020-04-09T12:53:28Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。