論文の概要: Multiview Self-Representation Learning across Heterogeneous Views
- arxiv url: http://arxiv.org/abs/2602.04328v1
- Date: Wed, 04 Feb 2026 08:45:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.439008
- Title: Multiview Self-Representation Learning across Heterogeneous Views
- Title(参考訳): 不均質な視点における多視点自己表現学習
- Authors: Jie Chen, Zhu Wang, Chuanbin Liu, Xi Peng,
- Abstract要約: 本稿では,多視点自己表現学習(MSRL)手法を提案する。
複数のベンチマークビジュアルデータセットを用いた実験により、提案手法はいくつかの最先端手法より一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 19.69688353136229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Features of the same sample generated by different pretrained models often exhibit inherently distinct feature distributions because of discrepancies in the model pretraining objectives or architectures. Learning invariant representations from large-scale unlabeled visual data with various pretrained models in a fully unsupervised transfer manner remains a significant challenge. In this paper, we propose a multiview self-representation learning (MSRL) method in which invariant representations are learned by exploiting the self-representation property of features across heterogeneous views. The features are derived from large-scale unlabeled visual data through transfer learning with various pretrained models and are referred to as heterogeneous multiview data. An individual linear model is stacked on top of its corresponding frozen pretrained backbone. We introduce an information-passing mechanism that relies on self-representation learning to support feature aggregation over the outputs of the linear model. Moreover, an assignment probability distribution consistency scheme is presented to guide multiview self-representation learning by exploiting complementary information across different views. Consequently, representation invariance across different linear models is enforced through this scheme. In addition, we provide a theoretical analysis of the information-passing mechanism, the assignment probability distribution consistency and the incremental views. Extensive experiments with multiple benchmark visual datasets demonstrate that the proposed MSRL method consistently outperforms several state-of-the-art approaches.
- Abstract(参考訳): 異なる事前訓練されたモデルによって生成された同じサンプルの特徴は、目的またはアーキテクチャを事前訓練するモデルに相違があるため、本質的に異なる特徴分布を示すことが多い。
様々な事前訓練されたモデルを用いた大規模未ラベルビジュアルデータから、完全に教師なしの転送方法で不変表現を学習することは、依然として大きな課題である。
本稿では,多視点自己表現学習(MSRL)手法を提案する。
これらの特徴は、様々な事前訓練されたモデルによる移動学習を通じて、大規模な未ラベルの視覚データから導出され、異種多視点データと呼ばれる。
個々の線形モデルは、対応する凍結済みのバックボーンの上に積み重ねられる。
本稿では,線形モデルの出力に対する特徴集約を支援するために,自己表現学習に依存する情報通過機構を提案する。
さらに,複数の視点にまたがる相補的情報を活用することで,多視点自己表現学習を導くための割当て確率分布の整合性スキームを提案する。
その結果、異なる線形モデルにまたがる表現不変性はこのスキームによって強制される。
さらに,情報伝達機構,割当て確率分布の整合性,インクリメンタルビューの理論的解析を行う。
複数のベンチマークビジュアルデータセットによる大規模な実験により、提案したMSRL法は、いくつかの最先端手法よりも一貫して優れていることが示された。
関連論文リスト
- Balanced Multi-view Clustering [56.17836963920012]
マルチビュークラスタリング(MvC)は、さまざまなビューからの情報を統合して、基盤となるデータ構造をキャプチャするモデルの能力を高めることを目的としている。
MvCで広く使われているジョイントトレーニングパラダイムは、多視点情報を十分に活用していない可能性がある。
本稿では,ビュー固有のコントラスト正規化(VCR)を導入し,各ビューの最適化を最適化する新しいマルチビュークラスタリング(BMvC)手法を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:42:47Z) - Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Variational Interpretable Learning from Multi-view Data [2.687817337319978]
DICCAは、多視点データの共有とビュー固有のバリエーションの両方を分離するように設計されている。
実世界のデータセットにおける実証的な結果は、我々の手法がドメイン間で競合していることを示している。
論文 参考訳(メタデータ) (2022-02-28T01:56:44Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。