論文の概要: Multi-view Feature Extraction based on Triple Contrastive Heads
- arxiv url: http://arxiv.org/abs/2303.12615v1
- Date: Wed, 22 Mar 2023 14:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:57:48.221951
- Title: Multi-view Feature Extraction based on Triple Contrastive Heads
- Title(参考訳): 三重コントラストヘッドを用いた多視点特徴抽出
- Authors: Hongjie Zhang
- Abstract要約: 三重コントラストヘッドに基づく新しい多視点特徴抽出法を提案する。
提案手法は,マルチビュー特徴抽出に強力な利点をもたらす。
- 参考スコア(独自算出の注目度): 1.4467794332678539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view feature extraction is an efficient approach for alleviating the
issue of dimensionality in highdimensional multi-view data. Contrastive
learning (CL), which is a popular self-supervised learning method, has recently
attracted considerable attention. In this study, we propose a novel multi-view
feature extraction method based on triple contrastive heads, which combines the
sample-, recovery- , and feature-level contrastive losses to extract the
sufficient yet minimal subspace discriminative information in compliance with
information bottleneck principle. In MFETCH, we construct the feature-level
contrastive loss, which removes the redundent information in the consistency
information to achieve the minimality of the subspace discriminative
information. Moreover, the recovery-level contrastive loss is also constructed
in MFETCH, which captures the view-specific discriminative information to
achieve the sufficiency of the subspace discriminative information.The
numerical experiments demonstrate that the proposed method offers a strong
advantage for multi-view feature extraction.
- Abstract(参考訳): マルチビュー特徴抽出は,高次元多視点データにおける次元性の問題を軽減するための効率的な手法である。
自己教師あり学習法であるコントラスト学習(cl)が近年注目されている。
本研究では,サンプル,リカバリ,特徴レベルのコントラスト損失を組み合わせた3重コントラストヘッドを用いた,情報ボトルネック原理に準拠した十分かつ最小のサブスペース識別情報を抽出するための多視点特徴抽出手法を提案する。
MFETCHでは,部分空間識別情報の最小化を実現するために,一貫性情報の冗長情報を除去する特徴レベルのコントラスト損失を構築する。
さらに,mfetchでは,サブスペース識別情報の十分性を達成するために,視点特異的な識別情報をキャプチャし,複数視点特徴抽出に強力な利点を与えることを示す数値実験を行った。
関連論文リスト
- Multimodal Information Bottleneck for Deep Reinforcement Learning with Multiple Sensors [10.454194186065195]
強化学習はロボット制御タスクにおいて有望な成果を上げてきたが、情報の有効活用に苦慮している。
最近の研究は、複数の感覚入力から関節表現を抽出するために、再構成や相互情報に基づく補助的損失を構築している。
生のマルチモーダル観測について,学習した共同表現で情報を圧縮することが有用である。
論文 参考訳(メタデータ) (2024-10-23T04:32:37Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Differentiable Information Bottleneck for Deterministic Multi-view Clustering [9.723389925212567]
我々は、決定論的かつ分析的なMVCソリューションを提供する新しい微分可能情報ボトルネック(DIB)手法を提案する。
具体的には、まず、正規化されたカーネルグラム行列を利用して高次元空間の相互情報を直接適合させることを提案する。
そして、新たな相互情報測定に基づいて、解析勾配を持つ決定論的多視点ニューラルネットワークを明示的にトレーニングし、IBの原理をパラメータ化する。
論文 参考訳(メタデータ) (2024-03-23T02:13:22Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Preventing Dimensional Collapse of Incomplete Multi-View Clustering via
Direct Contrastive Learning [0.14999444543328289]
我々は、新しい不完全なマルチビューコントラストクラスタリングフレームワークを提案する。
プロジェクションヘッドに頼ることなく、次元の崩壊を効果的に回避する。
5つのパブリックデータセット上で、最先端のクラスタリング結果を達成する。
論文 参考訳(メタデータ) (2023-03-22T00:21:50Z) - Multi-view Feature Extraction based on Dual Contrastive Head [1.4467794332678539]
デュアルコントラストヘッドに基づく新しいマルチビュー特徴抽出法を提案する。
サンプルレベルCLベースの手法に構造レベルのコントラスト損失を導入する。
6つの実データセットの数値実験により,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-08T08:13:17Z) - Federated Representation Learning via Maximal Coding Rate Reduction [109.26332878050374]
本稿では,複数のクライアントに分散したデータセットから低次元表現を学習する手法を提案する。
提案手法はFLOWと呼ばれ, MCR2を選択の対象とし, その結果, クラス間判別とクラス内圧縮の両方が可能な表現が得られた。
論文 参考訳(メタデータ) (2022-10-01T15:43:51Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。