論文の概要: Semantically Consistent Multi-view Representation Learning
- arxiv url: http://arxiv.org/abs/2303.04366v1
- Date: Wed, 8 Mar 2023 04:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:10:24.507938
- Title: Semantically Consistent Multi-view Representation Learning
- Title(参考訳): 意味的に一貫性のある多視点表現学習
- Authors: Yiyang Zhou, Qinghai Zheng, Shunshun Bai, Jihua Zhu
- Abstract要約: SCMRL(Semantically Consistent Multi-view Representation Learning)を提案する。
SCMRLは、基礎となる多視点セマンティックコンセンサス情報を抽出し、その情報を利用して、統合された特徴表現学習を導く。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
- 参考スコア(独自算出の注目度): 11.145085584637744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we devote ourselves to the challenging task of Unsupervised
Multi-view Representation Learning (UMRL), which requires learning a unified
feature representation from multiple views in an unsupervised manner. Existing
UMRL methods mainly concentrate on the learning process in the feature space
while ignoring the valuable semantic information hidden in different views. To
address this issue, we propose a novel Semantically Consistent Multi-view
Representation Learning (SCMRL), which makes efforts to excavate underlying
multi-view semantic consensus information and utilize the information to guide
the unified feature representation learning. Specifically, SCMRL consists of a
within-view reconstruction module and a unified feature representation learning
module, which are elegantly integrated by the contrastive learning strategy to
simultaneously align semantic labels of both view-specific feature
representations and the learned unified feature representation. In this way,
the consensus information in the semantic space can be effectively exploited to
constrain the learning process of unified feature representation. Compared with
several state-of-the-art algorithms, extensive experiments demonstrate its
superiority.
- Abstract(参考訳): 本研究では,Unsupervised Multi-view Representation Learning (UMRL) の課題に取り組み,教師なしの方法で複数のビューから統一された特徴表現を学習する必要がある。
既存のUMRL法は主に特徴空間における学習プロセスに集中し、異なる視点に隠された貴重な意味情報を無視する。
この問題に対処するために,多視点意味的コンセンサス情報を探索し,その情報を利用して特徴表現学習の統一を導出するセマンティック・コンスタンス・マルチビュー表現学習(SCMRL)を提案する。
具体的には、SCMRLは、ビュー内再構成モジュールと、コントラスト学習戦略によってエレガントに統合され、ビュー固有の特徴表現と学習された統一特徴表現のセマンティックラベルを同時に調整する統合特徴表現学習モジュールから構成される。
このように、意味空間におけるコンセンサス情報を効果的に利用して、統合された特徴表現の学習過程を制約することができる。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Constrained Multiview Representation for Self-supervised Contrastive
Learning [4.817827522417457]
本稿では、異なる視点の重要度を測定するために、表現距離に基づく相互情報(MI)に基づく新しいアプローチを提案する。
周波数領域から抽出した多視点表現を利用して、相互情報に基づいてそれらの意義を再評価する。
論文 参考訳(メタデータ) (2024-02-05T19:09:33Z) - Multi-Task Reinforcement Learning with Mixture of Orthogonal Experts [23.519416346955953]
MTRL(Multi-Task Reinforcement Learning)は、様々な問題にまたがる汎用スキルを持つエージェントの育成問題に取り組む。
この目的のために、表現の共有は、タスクのユニークな特徴と共通の特徴の両方をキャプチャする上で、基本的な役割を担っている。
本稿では,MTRLにおける表現学習の新たなアプローチを提案し,多様性を促進するために表現を用いたタスク間の共通構造をカプセル化する。
論文 参考訳(メタデータ) (2023-11-19T18:09:25Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Dual Representation Learning for One-Step Clustering of Multi-View Data [30.131568561100817]
異なるビューの共通情報と特定情報の二重表現を利用して,新しい一段階のマルチビュークラスタリング手法を提案する。
このフレームワークでは、表現学習とクラスタリングのパーティションが相互に恩恵を受け、クラスタリングのパフォーマンスが効果的に向上する。
論文 参考訳(メタデータ) (2022-08-30T14:20:26Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - Provable Representation Learning for Imitation Learning via Bi-level
Optimization [60.059520774789654]
現代の学習システムにおける一般的な戦略は、多くのタスクに有用な表現を学ぶことである。
我々は,複数の専門家の軌道が利用できるマルコフ決定過程(MDP)の模倣学習環境において,この戦略を研究する。
このフレームワークは,行動のクローン化と観察-アローンの模倣学習設定のためにインスタンス化する。
論文 参考訳(メタデータ) (2020-02-24T21:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。