論文の概要: Dual Consistent Constraint via Disentangled Consistency and Complementarity for Multi-view Clustering
- arxiv url: http://arxiv.org/abs/2504.04676v1
- Date: Mon, 07 Apr 2025 02:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:36.318881
- Title: Dual Consistent Constraint via Disentangled Consistency and Complementarity for Multi-view Clustering
- Title(参考訳): 多視点クラスタリングにおける対角整合性と相補性による二重整合性制約
- Authors: Bo Li, Jing Yun,
- Abstract要約: マルチビュークラスタリングは、複数のビューから共通のセマンティクスを探索することができる。
現在の手法は、各ビューの相補性の貢献を無視して、表現における一貫性の学習に焦点を当てている。
本稿では,複数ビューを共有情報とプライベート情報に分離する新しいマルチビュークラスタリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.52726833446215
- License:
- Abstract: Multi-view clustering can explore common semantics from multiple views and has received increasing attention in recent years. However, current methods focus on learning consistency in representation, neglecting the contribution of each view's complementarity aspect in representation learning. This limit poses a significant challenge in multi-view representation learning. This paper proposes a novel multi-view clustering framework that introduces a disentangled variational autoencoder that separates multi-view into shared and private information, i.e., consistency and complementarity information. We first learn informative and consistent representations by maximizing mutual information across different views through contrastive learning. This process will ignore complementary information. Then, we employ consistency inference constraints to explicitly utilize complementary information when attempting to seek the consistency of shared information across all views. Specifically, we perform a within-reconstruction using the private and shared information of each view and a cross-reconstruction using the shared information of all views. The dual consistency constraints are not only effective in improving the representation quality of data but also easy to extend to other scenarios, especially in complex multi-view scenes. This could be the first attempt to employ dual consistent constraint in a unified MVC theoretical framework. During the training procedure, the consistency and complementarity features are jointly optimized. Extensive experiments show that our method outperforms baseline methods.
- Abstract(参考訳): マルチビュークラスタリングは、複数のビューから共通のセマンティクスを探索することができ、近年注目を集めている。
しかし、現在の手法では、表現学習における各ビューの相補的側面の貢献を無視して、表現の一貫性を学ぶことに重点を置いている。
この制限は多視点表現学習において大きな課題となる。
本稿では,複数ビューを共有情報とプライベート情報,すなわち一貫性と相補性情報に分離する分散可変オートエンコーダを導入する,新しいマルチビュークラスタリングフレームワークを提案する。
まず、コントラスト学習を通じて、異なる視点における相互情報の最大化によって、情報的かつ一貫した表現を学習する。
このプロセスは相補的な情報を無視します。
そして、すべてのビューにまたがる共有情報の一貫性を求める際に、整合性推論制約を用いて補完情報を明示的に活用する。
具体的には、各ビューのプライベートおよび共有情報と、すべてのビューの共有情報を用いたクロスコンストラクションを用いて、内部コンストラクションを行う。
二重一貫性の制約は、データの表現品質を改善するだけでなく、特に複雑なマルチビューシーンにおいて、他のシナリオにも容易に拡張できる。
これは、統合MVC理論フレームワークで二重一貫した制約を採用する最初の試みかもしれない。
トレーニング手順の間、一貫性と相補性は共同で最適化される。
大規模な実験により,本手法はベースライン法よりも優れた性能を示した。
関連論文リスト
- Incomplete Contrastive Multi-View Clustering with High-Confidence
Guiding [7.305817202715752]
高信頼誘導(ICMVC)を用いた非完全コントラストマルチビュークラスタリング手法を提案する。
まず、欠落した値問題に対処するために、マルチビュー整合関係転送とグラフ畳み込みネットワークを提案する。
第2に、補完情報を活用するために、インスタンスレベルの注意融合と高信頼誘導を提案する。
論文 参考訳(メタデータ) (2023-12-14T07:28:41Z) - Hierarchical Mutual Information Analysis: Towards Multi-view Clustering
in The Wild [9.380271109354474]
この研究は、データリカバリとアライメントを階層的に一貫した方法で融合し、異なるビュー間の相互情報を最大化するディープMVCフレームワークを提案する。
私たちの知る限りでは、これは欠落したデータ問題と不整合データ問題に異なる学習パラダイムで別々に対処する最初の試みになるかもしれません。
論文 参考訳(メタデータ) (2023-10-28T06:43:57Z) - Disentangling Multi-view Representations Beyond Inductive Bias [32.15900989696017]
本稿では,表現の解釈可能性と一般化性を両立させる新しい多視点表現分離手法を提案する。
提案手法は,クラスタリングと分類性能において,12種類の比較手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T09:09:28Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。