論文の概要: Deep Partial Multi-View Learning
- arxiv url: http://arxiv.org/abs/2011.06170v1
- Date: Thu, 12 Nov 2020 02:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:26:37.345697
- Title: Deep Partial Multi-View Learning
- Title(参考訳): 深部部分多視点学習
- Authors: Changqing Zhang, Yajie Cui, Zongbo Han, Joey Tianyi Zhou, Huazhu Fu
and Qinghua Hu
- Abstract要約: クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
- 参考スコア(独自算出の注目度): 94.39367390062831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although multi-view learning has made signifificant progress over the past
few decades, it is still challenging due to the diffificulty in modeling
complex correlations among different views, especially under the context of
view missing. To address the challenge, we propose a novel framework termed
Cross Partial Multi-View Networks (CPM-Nets), which aims to fully and
flflexibly take advantage of multiple partial views. We fifirst provide a
formal defifinition of completeness and versatility for multi-view
representation and then theoretically prove the versatility of the learned
latent representations. For completeness, the task of learning latent
multi-view representation is specififically translated to a degradation process
by mimicking data transmission, such that the optimal tradeoff between
consistency and complementarity across different views can be implicitly
achieved. Equipped with adversarial strategy, our model stably imputes missing
views, encoding information from all views for each sample to be encoded into
latent representation to further enhance the completeness. Furthermore, a
nonparametric classifification loss is introduced to produce structured
representations and prevent overfifitting, which endows the algorithm with
promising generalization under view-missing cases. Extensive experimental
results validate the effectiveness of our algorithm over existing state of the
arts for classifification, representation learning and data imputation.
- Abstract(参考訳): マルチビュー学習は、過去数十年で顕著な進歩を遂げてきたが、特にビュー不足の状況下では、異なるビュー間の複雑な相関をモデル化することの難しさから、いまだに困難である。
そこで本研究では,マルチビューネットワーク (cpm-nets, cross partial multi-view network) と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的定義を提供し、その後理論的に学習された潜在表現の汎用性を証明する。
完全性のために、潜在多視点表現を学習するタスクは、データ伝送を模倣して劣化過程に特異的に変換され、異なるビュー間での一貫性と相補性の最適なトレードオフが暗黙的に達成される。
敵対的戦略を組み込んだこのモデルは、欠落したビューを安定的に含み、各サンプルのすべてのビューからの情報を潜在表現にエンコードし、完全性をさらに高める。
さらに、非パラメトリックな分類損失を導入し、構造化された表現を生成し、過剰フィッティングを防止する。
大規模な実験結果から, 分類, 表現学習, データ計算のための既存手法に対するアルゴリズムの有効性が検証された。
関連論文リスト
- Rethinking Multi-view Representation Learning via Distilled Disentangling [34.14711778177439]
マルチビュー表現学習は、多様なデータソースからビュー一貫性とビュー固有性の両方を持つ堅牢な表現を導出することを目的としている。
本稿では、この領域における既存のアプローチの詳細な分析を行い、ビュー一貫性とビュー固有表現の冗長性を強調した。
我々は,多視点表現学習のための革新的枠組みを提案し,これを「蒸留解離」と呼ぶ手法を取り入れた。
論文 参考訳(メタデータ) (2024-03-16T11:21:24Z) - TCGF: A unified tensorized consensus graph framework for multi-view
representation learning [27.23929515170454]
本稿では,Consensus Graph Framework (TCGF) という汎用多視点表現学習フレームワークを提案する。
まず、個々のビューの表現を利用するために、既存のマルチビューワークに統一されたフレームワークを提供する。
そして、それらを高次表現としてアライメント基本の下でテンソルに積み上げ、一貫性の滑らかな伝播を可能にする。
論文 参考訳(メタデータ) (2023-09-14T19:29:14Z) - A Clustering-guided Contrastive Fusion for Multi-view Representation
Learning [7.630965478083513]
本稿では、ビュー固有表現をビュー共通表現に融合する深層融合ネットワークを提案する。
また、ビュー共通表現とビュー固有表現を一致させる非対称なコントラスト戦略を設計する。
不完全な視点では,提案手法は競合相手よりもノイズ干渉に抵抗する。
論文 参考訳(メタデータ) (2022-12-28T07:21:05Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Latent Heterogeneous Graph Network for Incomplete Multi-View Learning [57.49776938934186]
非完全多視点学習のための新しい遅延不均質グラフネットワーク(LHGN)を提案する。
統一された潜在表現を学習することにより、異なる視点間の一貫性と相補性の間のトレードオフが暗黙的に実現される。
学習とテストフェーズの不整合を回避するため,分類タスクのグラフ学習に基づくトランスダクティブ学習手法を適用した。
論文 参考訳(メタデータ) (2022-08-29T15:14:21Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。