論文の概要: PMSSC: Parallelizable multi-subset based self-expressive model for
subspace clustering
- arxiv url: http://arxiv.org/abs/2111.12232v2
- Date: Thu, 5 Oct 2023 16:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:32:07.369404
- Title: PMSSC: Parallelizable multi-subset based self-expressive model for
subspace clustering
- Title(参考訳): PMSSC:サブスペースクラスタリングのための並列化可能なマルチサブセットベース自己表現モデル
- Authors: Katsuya Hotta, Takuya Akashi, Shogo Tokai, Chao Zhang
- Abstract要約: サブスペースクラスタリング手法は、データセット内の他のデータポイントの線形結合として各データポイントを表す自己表現モデルを採用している。
並列化可能なマルチサブセットベース自己表現モデル(PMS)を導入し,複数のサブセットを組み合わせることで各データポイントを表現する。
PMSSCは、サブセットから得られる複数の自己表現係数ベクトルを組み合わせることができ、自己表現性の向上に寄与する。
- 参考スコア(独自算出の注目度): 4.347947462145898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subspace clustering methods which embrace a self-expressive model that
represents each data point as a linear combination of other data points in the
dataset provide powerful unsupervised learning techniques. However, when
dealing with large datasets, representation of each data point by referring to
all data points via a dictionary suffers from high computational complexity. To
alleviate this issue, we introduce a parallelizable multi-subset based
self-expressive model (PMS) which represents each data point by combining
multiple subsets, with each consisting of only a small proportion of the
samples. The adoption of PMS in subspace clustering (PMSSC) leads to
computational advantages because the optimization problems decomposed over each
subset are small, and can be solved efficiently in parallel. Furthermore, PMSSC
is able to combine multiple self-expressive coefficient vectors obtained from
subsets, which contributes to an improvement in self-expressiveness. Extensive
experiments on synthetic and real-world datasets show the efficiency and
effectiveness of our approach in comparison to other methods.
- Abstract(参考訳): データセット内の他のデータポイントの線形結合として各データポイントを表す自己表現モデルを採用するサブスペースクラスタリングは、強力な教師なし学習技術を提供する。
しかし、大規模なデータセットを扱う場合、辞書を通してすべてのデータポイントを参照して各データポイントの表現は高い計算複雑性に苦しむ。
この問題を軽減するために,複数のサブセットを結合して各データポイントを表す並列化可能なマルチサブセットベース自己表現モデル(pms)を提案する。
サブスペースクラスタリング(PMSSC)におけるPMSの導入は、各サブセットに分解された最適化問題が小さく、並列に効率的に解決できるため、計算上の優位性をもたらす。
さらに、PSMSSCはサブセットから得られる複数の自己表現係数ベクトルを組み合わせることができ、自己表現性の向上に寄与する。
総合的および実世界のデータセットに関する広範な実験は、他の手法と比較して、我々のアプローチの効率性と有効性を示している。
関連論文リスト
- Fast and Scalable Semi-Supervised Learning for Multi-View Subspace Clustering [13.638434337947302]
FSSMSCは、既存のアプローチで一般的に見られる高い計算複雑性に対する新しいソリューションである。
この手法は、各データポイントを選択されたランドマークの疎線型結合として表現し、すべてのビューにまたがるコンセンサスアンカーグラフを生成する。
FSSMSCの有効性と効率は、様々なスケールの複数のベンチマークデータセットに対する広範な実験を通して検証される。
論文 参考訳(メタデータ) (2024-08-11T06:54:00Z) - Efficient and Effective Deep Multi-view Subspace Clustering [9.6753782215283]
E$2$MVSC(Efficient and Effective Deep Multi-View Subspace Clustering)と呼ばれる新しいディープフレームワークを提案する。
パラメータ化されたFC層の代わりに、より計算効率のよいサンプル数からネットワークパラメータスケールを分離するRelation-Metric Netを設計する。
E$2$MVSCは既存のメソッドに匹敵する結果を出し、様々なタイプのマルチビューデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-15T03:08:25Z) - One-step Multi-view Clustering with Diverse Representation [47.41455937479201]
本稿では,多視点学習と$k$-meansを統合フレームワークに組み込んだ一段階のマルチビュークラスタリングを提案する。
そこで本研究では,効率の良い最適化アルゴリズムを開発し,その解法について述べる。
論文 参考訳(メタデータ) (2023-06-08T02:52:24Z) - Subspace-Contrastive Multi-View Clustering [0.0]
本稿では,SCMC(Subspace-Contrastive Multi-View Clustering)アプローチを提案する。
ビュー固有のオートエンコーダを用いて、元のマルチビューデータを非線形構造を知覚するコンパクトな特徴にマッピングする。
提案モデルの有効性を実証するために,8つの課題データセットに対して比較実験を多数実施する。
論文 参考訳(メタデータ) (2022-10-13T07:19:37Z) - Adaptively-weighted Integral Space for Fast Multiview Clustering [54.177846260063966]
線形複雑度に近い高速マルチビュークラスタリングのための適応重み付き積分空間(AIMC)を提案する。
特に、ビュー生成モデルは、潜在積分空間からのビュー観測を再構成するために設計されている。
いくつかの実世界のデータセットで実施された実験は、提案したAIMC法の優位性を確認した。
論文 参考訳(メタデータ) (2022-08-25T05:47:39Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - A Multiscale Environment for Learning by Diffusion [9.619814126465206]
本稿では,Multiscale Environment for Learning by Diffusion (MELD)データモデルを提案する。
本稿では,MELDデータモデルがデータ中の潜在的マルチスケール構造を正確に把握し,解析を容易にすることを示す。
多くの実データセットで観測されるマルチスケール構造を効率的に学習するために,教師なし拡散(M-LUND)クラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-01-31T17:46:19Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Multi-View Spectral Clustering with High-Order Optimal Neighborhood
Laplacian Matrix [57.11971786407279]
マルチビュースペクトルクラスタリングは、データ間の固有のクラスタ構造を効果的に明らかにすることができる。
本稿では,高次最適近傍ラプラシア行列を学習するマルチビュースペクトルクラスタリングアルゴリズムを提案する。
提案アルゴリズムは, 1次ベースと高次ベースの両方の線形結合の近傍を探索し, 最適ラプラシア行列を生成する。
論文 参考訳(メタデータ) (2020-08-31T12:28:40Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。