論文の概要: Trusted Mamba Contrastive Network for Multi-View Clustering
- arxiv url: http://arxiv.org/abs/2412.16487v1
- Date: Sat, 21 Dec 2024 05:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:48.964995
- Title: Trusted Mamba Contrastive Network for Multi-View Clustering
- Title(参考訳): マルチビュークラスタリングのためのTrusted Mamba Contrastive Network
- Authors: Jian Zhu, Xin Zou, Lei Liu, Zhangmin Huang, Ying Zhang, Chang Tang, Li-Rong Dai,
- Abstract要約: マルチビュークラスタリングは、教師なしの方法でコンセンサス表現を学習することで、データサンプルをカテゴリに分割することができる。
本稿では,Trusted Mamba Contrastive Network (TMCN) と呼ばれる,この問題に対処する新しいマルチビュークラスタリングネットワークを提案する。
我々は、選択的なメカニズムにより、マルチビューデータの信頼融合を実現する新しいTrusted Mamba Fusion Network (TMFN)を提案する。
- 参考スコア(独自算出の注目度): 25.255009581305
- License:
- Abstract: Multi-view clustering can partition data samples into their categories by learning a consensus representation in an unsupervised way and has received more and more attention in recent years. However, there is an untrusted fusion problem. The reasons for this problem are as follows: 1) The current methods ignore the presence of noise or redundant information in the view; 2) The similarity of contrastive learning comes from the same sample rather than the same cluster in deep multi-view clustering. It causes multi-view fusion in the wrong direction. This paper proposes a novel multi-view clustering network to address this problem, termed as Trusted Mamba Contrastive Network (TMCN). Specifically, we present a new Trusted Mamba Fusion Network (TMFN), which achieves a trusted fusion of multi-view data through a selective mechanism. Moreover, we align the fused representation and the view-specific representation using the Average-similarity Contrastive Learning (AsCL) module. AsCL increases the similarity of view presentation from the same cluster, not merely from the same sample. Extensive experiments show that the proposed method achieves state-of-the-art results in deep multi-view clustering tasks.
- Abstract(参考訳): マルチビュークラスタリングは、教師なしの方法でコンセンサス表現を学習することで、データサンプルをカテゴリに分割することができ、近年ますます注目を集めている。
しかし、信頼できない核融合の問題がある。
この問題の理由は以下のとおりである。
1) 現状の方法は,ビューにノイズ又は冗長な情報が存在することを無視する。
2) 対比学習の類似性は, 深層多視点クラスタリングにおいて, 同じクラスタではなく, 同じサンプルから得られる。
これは間違った方向に複数ビューの融合を引き起こす。
本稿では,この問題を解決するために,Trusted Mamba Contrastive Network (TMCN) と呼ばれる新しいマルチビュークラスタリングネットワークを提案する。
具体的には,Trusted Mamba Fusion Network (TMFN) を提案する。
さらに、平均相似性比較学習(AsCL)モジュールを用いて、融合表現とビュー固有表現を整列する。
AsCLは、ビュー表示の類似性を同じクラスタから増加させ、同じサンプルからだけではない。
大規模な実験により,提案手法は深層多視点クラスタリングタスクにおいて最先端の結果が得られることが示された。
関連論文リスト
- CDIMC-net: Cognitive Deep Incomplete Multi-view Clustering Network [53.72046586512026]
我々は,認知的深層不完全多視点クラスタリングネットワーク(CDIMC-net)という,新しい不完全多視点クラスタリングネットワークを提案する。
ビュー固有のディープエンコーダとグラフ埋め込み戦略をフレームワークに組み込むことで、各ビューの高レベルな特徴とローカル構造をキャプチャする。
人間の認知、すなわち、簡単からハードに学ぶことに基づいて、モデルトレーニングのための最も自信あるサンプルを選択するための自己評価戦略を導入する。
論文 参考訳(メタデータ) (2024-03-28T15:45:03Z) - Incomplete Contrastive Multi-View Clustering with High-Confidence
Guiding [7.305817202715752]
高信頼誘導(ICMVC)を用いた非完全コントラストマルチビュークラスタリング手法を提案する。
まず、欠落した値問題に対処するために、マルチビュー整合関係転送とグラフ畳み込みネットワークを提案する。
第2に、補完情報を活用するために、インスタンスレベルの注意融合と高信頼誘導を提案する。
論文 参考訳(メタデータ) (2023-12-14T07:28:41Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - MORI-RAN: Multi-view Robust Representation Learning via Hybrid
Contrastive Fusion [4.36488705757229]
多視点表現学習は、クラスタリングや分類といった多くの多視点タスクに不可欠である。
ラベルのないデータから堅牢なビュー-共通表現を抽出するハイブリッドコントラスト融合アルゴリズムを提案する。
実験の結果,提案手法は実世界の4つのデータセットにおいて,12の競合的マルチビュー手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-26T09:58:37Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Deep Incomplete Multi-View Multiple Clusterings [41.43164409639238]
データビューと複数の共有表現を同時に補完する、深い不完全なマルチビュー多重クラスタリングフレームワークを導入する。
ベンチマークデータセットの実験では、DiMVMCは、多様性と品質の高い複数のクラスタリングの生成において、最先端の競合よりも優れていることが確認されている。
論文 参考訳(メタデータ) (2020-10-02T08:01:24Z) - Unsupervised Multi-view Clustering by Squeezing Hybrid Knowledge from
Cross View and Each View [68.88732535086338]
本稿では,適応グラフ正規化に基づくマルチビュークラスタリング手法を提案する。
5つの多視点ベンチマークの実験結果から,提案手法が他の最先端手法をクリアマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-08-23T08:25:06Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。