論文の概要: Self-attention Multi-view Representation Learning with
Diversity-promoting Complementarity
- arxiv url: http://arxiv.org/abs/2201.00168v1
- Date: Sat, 1 Jan 2022 11:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 00:56:12.105823
- Title: Self-attention Multi-view Representation Learning with
Diversity-promoting Complementarity
- Title(参考訳): 多様性を促進させる相補性を持つ自己注意型多視点表現学習
- Authors: Jian-wei Liu, Xi-hao Ding, Run-kun Lu, Xionglin Luo
- Abstract要約: マルチビュー学習は、マルチビューデータ間のコンセンサスと/または相補性を利用して、より良いパフォーマンスでモデルを生成する。
本稿では,多目的相補性を有する自己注意型多視点ネットワークという,教師付き多視点表現学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.213976613562574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-view learning attempts to generate a model with a better performance by
exploiting the consensus and/or complementarity among multi-view data. However,
in terms of complementarity, most existing approaches only can find
representations with single complementarity rather than complementary
information with diversity. In this paper, to utilize both complementarity and
consistency simultaneously, give free rein to the potential of deep learning in
grasping diversity-promoting complementarity for multi-view representation
learning, we propose a novel supervised multi-view representation learning
algorithm, called Self-Attention Multi-View network with Diversity-Promoting
Complementarity (SAMVDPC), which exploits the consistency by a group of
encoders, uses self-attention to find complementary information entailing
diversity. Extensive experiments conducted on eight real-world datasets have
demonstrated the effectiveness of our proposed method, and show its superiority
over several baseline methods, which only consider single complementary
information.
- Abstract(参考訳): マルチビュー学習は、マルチビューデータ間のコンセンサスと/または相補性を利用して、より良いパフォーマンスでモデルを生成する。
しかし、相補性の観点からは、既存のほとんどのアプローチは相補性のある表現しか見つけられない。
In this paper, to utilize both complementarity and consistency simultaneously, give free rein to the potential of deep learning in grasping diversity-promoting complementarity for multi-view representation learning, we propose a novel supervised multi-view representation learning algorithm, called Self-Attention Multi-View network with Diversity-Promoting Complementarity (SAMVDPC), which exploits the consistency by a group of encoders, uses self-attention to find complementary information entailing diversity.
8つの実世界のデータセットを対象とした広範囲な実験により,提案手法の有効性が実証され,単一の補完的情報のみを考慮に入れた複数のベースライン法に対してその優越性が示された。
関連論文リスト
- Decoupling Common and Unique Representations for Multimodal Self-supervised Learning [22.12729786091061]
マルチモーダルな自己教師型学習のための簡易かつ効果的な方法として,Decoupling Common and Unique Representations (DeCUR)を提案する。
マルチモーダル冗長性低減によるモーダル内埋め込みとモーダル内埋め込みを区別することにより、DeCURは異なるモーダル間で補完情報を統合できる。
論文 参考訳(メタデータ) (2023-09-11T08:35:23Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - Latent Heterogeneous Graph Network for Incomplete Multi-View Learning [57.49776938934186]
非完全多視点学習のための新しい遅延不均質グラフネットワーク(LHGN)を提案する。
統一された潜在表現を学習することにより、異なる視点間の一貫性と相補性の間のトレードオフが暗黙的に実現される。
学習とテストフェーズの不整合を回避するため,分類タスクのグラフ学習に基づくトランスダクティブ学習手法を適用した。
論文 参考訳(メタデータ) (2022-08-29T15:14:21Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - A unified framework based on graph consensus term for multi-view
learning [5.168659132277719]
本稿では,既存のグラフ埋め込み作業の多くを統一された公式に活用することを目的とした,新しい多視点学習フレームワークを提案する。
本手法は,グラフ埋め込み手法の多様性を維持するために,各ビューのグラフ構造を独立に探索する。
この目的のために、異なる視点の多様性と相補的な情報を同時に検討することができる。
論文 参考訳(メタデータ) (2021-05-25T09:22:21Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z) - Embedded Deep Bilinear Interactive Information and Selective Fusion for
Multi-view Learning [70.67092105994598]
本稿では,上記の2つの側面に着目した,新しい多視点学習フレームワークを提案する。
特に、さまざまな深層ニューラルネットワークをトレーニングして、様々なビュー内表現を学習する。
6つの公開データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-13T01:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。