論文の概要: Hierarchical Consensus Network for Multiview Feature Learning
- arxiv url: http://arxiv.org/abs/2502.01961v1
- Date: Tue, 04 Feb 2025 03:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:14.969791
- Title: Hierarchical Consensus Network for Multiview Feature Learning
- Title(参考訳): マルチビュー特徴学習のための階層型コンセンサスネットワーク
- Authors: Chengwei Xia, Chaoxi Niu, Kun Zhan,
- Abstract要約: 本稿では,CCAの理論とコントラスト学習に動機付けられ,階層型コンセンサスネットワーク(HCN)を提案する。
提案手法は,いくつかの最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 1.33134751838052
- License:
- Abstract: Multiview feature learning aims to learn discriminative features by integrating the distinct information in each view. However, most existing methods still face significant challenges in learning view-consistency features, which are crucial for effective multiview learning. Motivated by the theories of CCA and contrastive learning in multiview feature learning, we propose the hierarchical consensus network (HCN) in this paper. The HCN derives three consensus indices for capturing the hierarchical consensus across views, which are classifying consensus, coding consensus, and global consensus, respectively. Specifically, classifying consensus reinforces class-level correspondence between views from a CCA perspective, while coding consensus closely resembles contrastive learning and reflects contrastive comparison of individual instances. Global consensus aims to extract consensus information from two perspectives simultaneously. By enforcing the hierarchical consensus, the information within each view is better integrated to obtain more comprehensive and discriminative features. The extensive experimental results obtained on four multiview datasets demonstrate that the proposed method significantly outperforms several state-of-the-art methods.
- Abstract(参考訳): マルチビュー特徴学習は、各ビューに異なる情報を統合することで識別的特徴を学習することを目的としている。
しかし、既存のほとんどの手法は、効果的な多視点学習に欠かせないビュー整合性の特徴を学習する上で大きな課題に直面している。
本稿では,CCAの理論とマルチビュー特徴学習におけるコントラスト学習を動機として,階層型コンセンサスネットワーク(HCN)を提案する。
HCNは、意見の階層的コンセンサスを捉え、それぞれコンセンサス、コーディングコンセンサス、グローバルコンセンサスを分類する3つのコンセンサス指標を導出する。
特に、分類コンセンサスは、CCAの観点からの視点間のクラスレベルの対応を強化し、符号化コンセンサスは、対照的な学習によく似ており、個々のインスタンスの対照的な比較を反映している。
グローバルコンセンサスは、2つの視点からコンセンサス情報を同時に抽出することを目的としている。
階層的コンセンサスを強制することにより、各ビュー内の情報はより包括的で差別的な特徴を得るためにより統合される。
4つのマルチビューデータセットで得られた広範な実験結果から,提案手法がいくつかの最先端手法を著しく上回ることを示した。
関連論文リスト
- Towards the Generalization of Multi-view Learning: An Information-theoretical Analysis [28.009990407017618]
我々は多視点学習のための情報理論の一般化境界を開発する。
我々は、新しいデータ依存バウンダリを、Left-one-outとSupersample設定の両方で導き出す。
補間体制では、多視点学習のための高速な境界がさらに確立される。
論文 参考訳(メタデータ) (2025-01-28T07:47:19Z) - Incomplete Multi-view Multi-label Classification via a Dual-level Contrastive Learning Framework [1.224954637705144]
本稿では,二重欠落多視点多ラベル分類の課題を解決するために,両レベルコントラスト学習フレームワークを提案する。
いくつかの広く使用されているベンチマークデータセットの実験により、提案手法はより安定し、より優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2024-11-27T12:04:04Z) - Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
離散コードによるより強力な協調情報を用いて、コントラスト的なビューを構築することにより、グラフのコントラスト学習を強化することを目的とした、新しいフレームワークを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - TCGF: A unified tensorized consensus graph framework for multi-view
representation learning [27.23929515170454]
本稿では,Consensus Graph Framework (TCGF) という汎用多視点表現学習フレームワークを提案する。
まず、個々のビューの表現を利用するために、既存のマルチビューワークに統一されたフレームワークを提供する。
そして、それらを高次表現としてアライメント基本の下でテンソルに積み上げ、一貫性の滑らかな伝播を可能にする。
論文 参考訳(メタデータ) (2023-09-14T19:29:14Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Agglomerative Neural Networks for Multi-view Clustering [109.55325971050154]
本稿では,最適コンセンサスを近似する凝集分析法を提案する。
本稿では,制約付きラプラシアンランクに基づくANN(Agglomerative Neural Network)を用いて,マルチビューデータをクラスタリングする。
4つの一般的なデータセットに対する最先端のマルチビュークラスタリング手法に対する我々の評価は、ANNの有望なビュー・コンセンサス分析能力を示している。
論文 参考訳(メタデータ) (2020-05-12T05:39:10Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。