論文の概要: SLRL: Structured Latent Representation Learning for Multi-view Clustering
- arxiv url: http://arxiv.org/abs/2407.08340v1
- Date: Thu, 11 Jul 2024 09:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 17:59:20.786606
- Title: SLRL: Structured Latent Representation Learning for Multi-view Clustering
- Title(参考訳): SLRL:マルチビュークラスタリングのための構造化潜在表現学習
- Authors: Zhangci Xiong, Meng Cao,
- Abstract要約: マルチビュークラスタリング(MVC)は、異なるビュー間の固有の一貫性と相補性を活用して、クラスタリングの結果を改善することを目的としている。
MVCでの広範な研究にもかかわらず、既存のほとんどのメソッドは、主にクラスタリングの有効性を高めるためにビューをまたいだ補完的な情報を活用することに重点を置いています。
本稿では,構造化潜在表現学習に基づくマルチビュークラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 24.333292079699554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Multi-View Clustering (MVC) has attracted increasing attention for its potential to reduce the annotation burden associated with large datasets. The aim of MVC is to exploit the inherent consistency and complementarity among different views, thereby integrating information from multiple perspectives to improve clustering outcomes. Despite extensive research in MVC, most existing methods focus predominantly on harnessing complementary information across views to enhance clustering effectiveness, often neglecting the structural information among samples, which is crucial for exploring sample correlations. To address this gap, we introduce a novel framework, termed Structured Latent Representation Learning based Multi-View Clustering method (SLRL). SLRL leverages both the complementary and structural information. Initially, it learns a common latent representation for all views. Subsequently, to exploit the structural information among samples, a k-nearest neighbor graph is constructed from this common latent representation. This graph facilitates enhanced sample interaction through graph learning techniques, leading to a structured latent representation optimized for clustering. Extensive experiments demonstrate that SLRL not only competes well with existing methods but also sets new benchmarks in various multi-view datasets.
- Abstract(参考訳): 近年,MVC (Multi-View Clustering) が注目されている。
MVCの目的は、異なるビューの固有の一貫性と相補性を利用して、複数の視点からの情報を統合し、クラスタリングの結果を改善することである。
MVCでの広範な研究にもかかわらず、既存のほとんどの手法は、主に、クラスタリングの有効性を高めるために、ビューをまたいだ補完的な情報を活用することに重点を置いており、しばしばサンプル間の構造的な情報を無視する。
そこで我々は,SLRL(Structured Latent Representation Learning based Multi-View Clustering method)と呼ばれる新しいフレームワークを導入する。
SLRLは相補的情報と構造的情報の両方を利用する。
最初は、すべてのビューに対して共通の潜在表現を学ぶ。
その後、サンプル間の構造情報を利用するために、この一般的な潜在表現からk-アネレスト近傍グラフを構築する。
このグラフは、グラフ学習技術によるサンプル相互作用の強化を促進し、クラスタリングに最適化された構造化潜在表現をもたらす。
大規模な実験により、SLRLは既存の手法とよく競合するだけでなく、様々なマルチビューデータセットに新しいベンチマークを設定できることが示された。
関連論文リスト
- Partial Multi-View Clustering via Meta-Learning and Contrastive Feature Alignment [13.511433241138702]
部分的マルチビュークラスタリング (PVC) は、実世界のアプリケーションにおけるデータ分析における実用的な研究課題である。
既存のクラスタリング手法は、不完全なビューを効果的に扱うのに苦労し、サブ最適クラスタリング性能に繋がる。
非完全多視点データにおける潜在的特徴の一貫性を最大化することを目的とした、コントラスト学習に基づく新しい双対最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T19:16:01Z) - Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - One for all: A novel Dual-space Co-training baseline for Large-scale
Multi-View Clustering [42.92751228313385]
我々は、Dual-space Co-training Large-scale Multi-view Clustering (DSCMC)という新しいマルチビュークラスタリングモデルを提案する。
提案手法の主な目的は,2つの異なる空間における協調学習を活用することにより,クラスタリング性能を向上させることである。
我々のアルゴリズムは近似線形計算複雑性を持ち、大規模データセットへの適用が成功することを保証している。
論文 参考訳(メタデータ) (2024-01-28T16:30:13Z) - A Novel Approach for Effective Multi-View Clustering with
Information-Theoretic Perspective [24.630259061774836]
本研究では,多視点クラスタリングフレームワークを情報理論の観点から検討する,SUMVC(Sufficient Multi-View Clustering)と呼ばれる新しい手法を提案する。
まず,変分解析を用いて一貫した情報を生成する,シンプルで信頼性の高いマルチビュークラスタリング手法SCMVCを開発する。
次に、一貫した情報を強化し、ビュー間の不要な情報を最小限に抑えるのに十分な表現境界を提案する。
論文 参考訳(メタデータ) (2023-09-25T09:41:11Z) - Efficient Multi-View Graph Clustering with Local and Global Structure
Preservation [59.49018175496533]
局所・グローバル構造保存を用いた効率的なマルチビューグラフクラスタリング(EMVGC-LG)という,アンカーベースのマルチビューグラフクラスタリングフレームワークを提案する。
具体的には、EMVGC-LGがクラスタリング品質を向上させるために、アンカー構築とグラフ学習を共同で最適化する。
さらに、EMVGC-LGはサンプル数に関する既存のAMVGCメソッドの線形複雑性を継承する。
論文 参考訳(メタデータ) (2023-08-31T12:12:30Z) - Dual Information Enhanced Multi-view Attributed Graph Clustering [11.624319530337038]
本稿では,Dual Information enhanced Multi-view Attributed Graph Clustering (DIAGC)法を提案する。
提案手法では,複数の視点からのコンセンサスと特定情報の探索を阻害する特定情報再構成(SIR)モジュールを提案する。
相互情報最大化(MIM)モジュールは、潜在高レベル表現と低レベル表現との合意を最大化し、高レベル表現が所望のクラスタリング構造を満たすことを可能にする。
論文 参考訳(メタデータ) (2022-11-28T01:18:04Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Double Graphs Regularized Multi-view Subspace Clustering [15.52467509308717]
本稿では,新しいDouble Graphs Regularized Multi-view Subspace Clustering (DGRMSC)法を提案する。
マルチビューデータのグローバルな構造情報とローカルな構造情報の両方を統一されたフレームワークで活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-30T00:16:42Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Agglomerative Neural Networks for Multi-view Clustering [109.55325971050154]
本稿では,最適コンセンサスを近似する凝集分析法を提案する。
本稿では,制約付きラプラシアンランクに基づくANN(Agglomerative Neural Network)を用いて,マルチビューデータをクラスタリングする。
4つの一般的なデータセットに対する最先端のマルチビュークラスタリング手法に対する我々の評価は、ANNの有望なビュー・コンセンサス分析能力を示している。
論文 参考訳(メタデータ) (2020-05-12T05:39:10Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。