論文の概要: Unsupervised Manifold Linearizing and Clustering
- arxiv url: http://arxiv.org/abs/2301.01805v1
- Date: Wed, 4 Jan 2023 20:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:31:34.231829
- Title: Unsupervised Manifold Linearizing and Clustering
- Title(参考訳): 教師なしマニフォールド線形化とクラスタリング
- Authors: Tianjiao Ding, Shengbang Tong, Kwan Ho Ryan Chan, Xili Dai, Yi Ma,
Benjamin D. Haeffele
- Abstract要約: 本稿では,クラスタリングを行い,最大符号化率の削減による部分空間の和合表現を学習することを提案する。
合成および現実的なデータセットの実験により,提案手法は,最先端の代替手法に匹敵するクラスタリング精度を実現することを示した。
- 参考スコア(独自算出の注目度): 17.252562935291497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering data lying close to a union of low-dimensional manifolds, with
each manifold as a cluster, is a fundamental problem in machine learning. When
the manifolds are assumed to be linear subspaces, many methods succeed using
low-rank and sparse priors, which have been studied extensively over the past
two decades. Unfortunately, most real-world datasets can not be well
approximated by linear subspaces. On the other hand, several works have
proposed to identify the manifolds by learning a feature map such that the data
transformed by the map lie in a union of linear subspaces, even though the
original data are from non-linear manifolds. However, most works either assume
knowledge of the membership of samples to clusters, or are shown to learn
trivial representations. In this paper, we propose to simultaneously perform
clustering and learn a union-of-subspace representation via Maximal Coding Rate
Reduction. Experiments on synthetic and realistic datasets show that the
proposed method achieves clustering accuracy comparable with state-of-the-art
alternatives, while being more scalable and learning geometrically meaningful
representations.
- Abstract(参考訳): 低次元多様体の結合に近接するクラスタリングデータは、各多様体をクラスタとして、機械学習の基本的な問題である。
多様体が線型部分空間であると仮定されるとき、多くの手法は、過去20年間に広く研究されてきた低ランクおよびスパース先行を用いて成功する。
残念ながら、ほとんどの実世界のデータセットは線形部分空間によって十分に近似できない。
一方、元データが非線型多様体であるにもかかわらず、写像によって変換されたデータが線型部分空間の和集合にあるような特徴写像を学習することで多様体を識別するいくつかの研究が提案されている。
しかしながら、ほとんどの研究は、サンプルのクラスタへのメンバシップに関する知識を前提とするか、あるいは自明な表現を学ぶことが示される。
本稿では,クラスタ化と最大符号化率削減によるサブスペース結合表現の学習を同時に行うことを提案する。
合成および現実的なデータセットの実験により、提案手法は、よりスケーラブルで幾何学的に意味のある表現を学習しながら、最先端の代替品に匹敵するクラスタリング精度を実現する。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Adaptively-weighted Integral Space for Fast Multiview Clustering [54.177846260063966]
線形複雑度に近い高速マルチビュークラスタリングのための適応重み付き積分空間(AIMC)を提案する。
特に、ビュー生成モデルは、潜在積分空間からのビュー観測を再構成するために設計されている。
いくつかの実世界のデータセットで実施された実験は、提案したAIMC法の優位性を確認した。
論文 参考訳(メタデータ) (2022-08-25T05:47:39Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Revisiting data augmentation for subspace clustering [21.737226432466496]
サブスペースクラスタリング(Subspace clustering)は、複数の低次元のサブスペースを囲むデータサンプルの集合をクラスタリングする古典的な問題である。
我々は,各部分空間内のデータ分布が自己表現モデルの成功に重要な役割を果たしていると主張している。
教師なし設定と半教師なし設定の2つのサブスペースクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T08:13:08Z) - Enriched Robust Multi-View Kernel Subspace Clustering [5.770309971945476]
サブスペースクラスタリングは、下位の低次元のサブスペースを見つけ、データポイントを正しくクラスタ化する。
既存の方法の多くは2つの重大な問題に悩まされている。
本稿では,新しいマルチビューサブスペースクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T03:06:24Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - A Critique of Self-Expressive Deep Subspace Clustering [23.971512395191308]
サブスペースクラスタリング(Subspace clustering)は、線形サブスペースの和集合上でサポートされているデータをクラスタリングするために設計された、教師なしクラスタリング技術である。
従来の作業では適切に対処されていなかったこのアプローチには,潜在的な欠陥がいくつかあることを示す。
論文 参考訳(メタデータ) (2020-10-08T00:14:59Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z) - Learnable Subspace Clustering [76.2352740039615]
本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
論文 参考訳(メタデータ) (2020-04-09T12:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。