論文の概要: Semantically Consistent Multi-view Representation Learning
- arxiv url: http://arxiv.org/abs/2303.04366v1
- Date: Wed, 8 Mar 2023 04:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:10:24.507938
- Title: Semantically Consistent Multi-view Representation Learning
- Title(参考訳): 意味的に一貫性のある多視点表現学習
- Authors: Yiyang Zhou, Qinghai Zheng, Shunshun Bai, Jihua Zhu
- Abstract要約: SCMRL(Semantically Consistent Multi-view Representation Learning)を提案する。
SCMRLは、基礎となる多視点セマンティックコンセンサス情報を抽出し、その情報を利用して、統合された特徴表現学習を導く。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
- 参考スコア(独自算出の注目度): 11.145085584637744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we devote ourselves to the challenging task of Unsupervised
Multi-view Representation Learning (UMRL), which requires learning a unified
feature representation from multiple views in an unsupervised manner. Existing
UMRL methods mainly concentrate on the learning process in the feature space
while ignoring the valuable semantic information hidden in different views. To
address this issue, we propose a novel Semantically Consistent Multi-view
Representation Learning (SCMRL), which makes efforts to excavate underlying
multi-view semantic consensus information and utilize the information to guide
the unified feature representation learning. Specifically, SCMRL consists of a
within-view reconstruction module and a unified feature representation learning
module, which are elegantly integrated by the contrastive learning strategy to
simultaneously align semantic labels of both view-specific feature
representations and the learned unified feature representation. In this way,
the consensus information in the semantic space can be effectively exploited to
constrain the learning process of unified feature representation. Compared with
several state-of-the-art algorithms, extensive experiments demonstrate its
superiority.
- Abstract(参考訳): 本研究では,Unsupervised Multi-view Representation Learning (UMRL) の課題に取り組み,教師なしの方法で複数のビューから統一された特徴表現を学習する必要がある。
既存のUMRL法は主に特徴空間における学習プロセスに集中し、異なる視点に隠された貴重な意味情報を無視する。
この問題に対処するために,多視点意味的コンセンサス情報を探索し,その情報を利用して特徴表現学習の統一を導出するセマンティック・コンスタンス・マルチビュー表現学習(SCMRL)を提案する。
具体的には、SCMRLは、ビュー内再構成モジュールと、コントラスト学習戦略によってエレガントに統合され、ビュー固有の特徴表現と学習された統一特徴表現のセマンティックラベルを同時に調整する統合特徴表現学習モジュールから構成される。
このように、意味空間におけるコンセンサス情報を効果的に利用して、統合された特徴表現の学習過程を制約することができる。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Rethinking Multi-view Representation Learning via Distilled Disentangling [34.14711778177439]
マルチビュー表現学習は、多様なデータソースからビュー一貫性とビュー固有性の両方を持つ堅牢な表現を導出することを目的としている。
本稿では、この領域における既存のアプローチの詳細な分析を行い、ビュー一貫性とビュー固有表現の冗長性を強調した。
我々は,多視点表現学習のための革新的枠組みを提案し,これを「蒸留解離」と呼ぶ手法を取り入れた。
論文 参考訳(メタデータ) (2024-03-16T11:21:24Z) - Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Constrained Multiview Representation for Self-supervised Contrastive
Learning [4.817827522417457]
本稿では、異なる視点の重要度を測定するために、表現距離に基づく相互情報(MI)に基づく新しいアプローチを提案する。
周波数領域から抽出した多視点表現を利用して、相互情報に基づいてそれらの意義を再評価する。
論文 参考訳(メタデータ) (2024-02-05T19:09:33Z) - A Probabilistic Model behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
識別性SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示す。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Provable Representation Learning for Imitation Learning via Bi-level
Optimization [60.059520774789654]
現代の学習システムにおける一般的な戦略は、多くのタスクに有用な表現を学ぶことである。
我々は,複数の専門家の軌道が利用できるマルコフ決定過程(MDP)の模倣学習環境において,この戦略を研究する。
このフレームワークは,行動のクローン化と観察-アローンの模倣学習設定のためにインスタンス化する。
論文 参考訳(メタデータ) (2020-02-24T21:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。