論文の概要: Trusted Mamba Contrastive Network for Multi-View Clustering
- arxiv url: http://arxiv.org/abs/2412.16487v2
- Date: Tue, 07 Jan 2025 02:08:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:47:25.840969
- Title: Trusted Mamba Contrastive Network for Multi-View Clustering
- Title(参考訳): マルチビュークラスタリングのためのTrusted Mamba Contrastive Network
- Authors: Jian Zhu, Xin Zou, Lei Liu, Zhangmin Huang, Ying Zhang, Chang Tang, Li-Rong Dai,
- Abstract要約: マルチビュークラスタリングは、教師なしの方法でコンセンサス表現を学習することで、データサンプルをカテゴリに分割することができる。
本稿では,Trusted Mamba Contrastive Network (TMCN) と呼ばれる,この問題に対処する新しいマルチビュークラスタリングネットワークを提案する。
我々は、選択的なメカニズムにより、マルチビューデータの信頼融合を実現する新しいTrusted Mamba Fusion Network (TMFN)を提案する。
- 参考スコア(独自算出の注目度): 25.255009581305
- License:
- Abstract: Multi-view clustering can partition data samples into their categories by learning a consensus representation in an unsupervised way and has received more and more attention in recent years. However, there is an untrusted fusion problem. The reasons for this problem are as follows: 1) The current methods ignore the presence of noise or redundant information in the view; 2) The similarity of contrastive learning comes from the same sample rather than the same cluster in deep multi-view clustering. It causes multi-view fusion in the wrong direction. This paper proposes a novel multi-view clustering network to address this problem, termed as Trusted Mamba Contrastive Network (TMCN). Specifically, we present a new Trusted Mamba Fusion Network (TMFN), which achieves a trusted fusion of multi-view data through a selective mechanism. Moreover, we align the fused representation and the view-specific representation using the Average-similarity Contrastive Learning (AsCL) module. AsCL increases the similarity of view presentation from the same cluster, not merely from the same sample. Extensive experiments show that the proposed method achieves state-of-the-art results in deep multi-view clustering tasks. The source code is available at https://github.com/HackerHyper/TMCN.
- Abstract(参考訳): マルチビュークラスタリングは、教師なしの方法でコンセンサス表現を学習することで、データサンプルをカテゴリに分割することができ、近年ますます注目を集めている。
しかし、信頼できない核融合の問題がある。
この問題の理由は以下のとおりである。
1) 現状の方法は,ビューにノイズ又は冗長な情報が存在することを無視する。
2) 対比学習の類似性は, 深層多視点クラスタリングにおいて, 同じクラスタではなく, 同じサンプルから得られる。
これは間違った方向に複数ビューの融合を引き起こす。
本稿では,この問題を解決するために,Trusted Mamba Contrastive Network (TMCN) と呼ばれる新しいマルチビュークラスタリングネットワークを提案する。
具体的には,Trusted Mamba Fusion Network (TMFN) を提案する。
さらに、平均相似性比較学習(AsCL)モジュールを用いて、融合表現とビュー固有表現を整列する。
AsCLは、ビュー表示の類似性を同じクラスタから増加させ、同じサンプルからだけではない。
大規模な実験により,提案手法は深層多視点クラスタリングタスクにおいて最先端の結果が得られることが示された。
ソースコードはhttps://github.com/HackerHyper/TMCNで入手できる。
関連論文リスト
- CDIMC-net: Cognitive Deep Incomplete Multi-view Clustering Network [53.72046586512026]
我々は,認知的深層不完全多視点クラスタリングネットワーク(CDIMC-net)という,新しい不完全多視点クラスタリングネットワークを提案する。
ビュー固有のディープエンコーダとグラフ埋め込み戦略をフレームワークに組み込むことで、各ビューの高レベルな特徴とローカル構造をキャプチャする。
人間の認知、すなわち、簡単からハードに学ぶことに基づいて、モデルトレーニングのための最も自信あるサンプルを選択するための自己評価戦略を導入する。
論文 参考訳(メタデータ) (2024-03-28T15:45:03Z) - Consistency Enhancement-Based Deep Multiview Clustering via Contrastive Learning [16.142448870120027]
コントラスト学習(CCEC)による一貫した拡張型ディープMVC法を提案する。
具体的には、複数のビュー間の一貫性のある情報を保持するために、セマンティック接続ブロックを特徴表現に組み込む。
5つのデータセットで行った実験は、最先端(SOTA)手法と比較して、本手法の有効性と優位性を示した。
論文 参考訳(メタデータ) (2024-01-23T10:56:01Z) - Incomplete Contrastive Multi-View Clustering with High-Confidence
Guiding [7.305817202715752]
高信頼誘導(ICMVC)を用いた非完全コントラストマルチビュークラスタリング手法を提案する。
まず、欠落した値問題に対処するために、マルチビュー整合関係転送とグラフ畳み込みネットワークを提案する。
第2に、補完情報を活用するために、インスタンスレベルの注意融合と高信頼誘導を提案する。
論文 参考訳(メタデータ) (2023-12-14T07:28:41Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - MORI-RAN: Multi-view Robust Representation Learning via Hybrid
Contrastive Fusion [4.36488705757229]
多視点表現学習は、クラスタリングや分類といった多くの多視点タスクに不可欠である。
ラベルのないデータから堅牢なビュー-共通表現を抽出するハイブリッドコントラスト融合アルゴリズムを提案する。
実験の結果,提案手法は実世界の4つのデータセットにおいて,12の競合的マルチビュー手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-26T09:58:37Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Deep Incomplete Multi-View Multiple Clusterings [41.43164409639238]
データビューと複数の共有表現を同時に補完する、深い不完全なマルチビュー多重クラスタリングフレームワークを導入する。
ベンチマークデータセットの実験では、DiMVMCは、多様性と品質の高い複数のクラスタリングの生成において、最先端の競合よりも優れていることが確認されている。
論文 参考訳(メタデータ) (2020-10-02T08:01:24Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Multi-view Deep Subspace Clustering Networks [64.29227045376359]
マルチビューサブスペースクラスタリングは、相補的な情報の複数のビューを融合することによって、データ固有の構造を発見することを目的としている。
本稿では,MvDSCN(Multi-view Deep Subspace Clustering Networks)を提案する。
MvDSCNはクラスタリング性能を高めるために複数のバックボーンを統合する。
論文 参考訳(メタデータ) (2019-08-06T06:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。