論文の概要: Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation
- arxiv url: http://arxiv.org/abs/2503.04151v1
- Date: Thu, 06 Mar 2025 07:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:47.527395
- Title: Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation
- Title(参考訳): サンプルレベル注意の表現融合と模擬摂動のアライメントによるロバスト多視点学習
- Authors: Jie Xu, Na Zhao, Gang Niu, Masashi Sugiyama, Xiaofeng Zhu,
- Abstract要約: 実世界のマルチビューデータセットは、しばしば不均一で不完全である。
本稿では,表現融合とアライメントを同時に行う新しいロバストMVL法(RML)を提案する。
実験では、教師なしマルチビュークラスタリング、ノイズラベル分類、およびクロスモーダルハッシュ検索のためのプラグ・アンド・プレイモジュールとして採用する。
- 参考スコア(独自算出の注目度): 61.64052577026623
- License:
- Abstract: Recently, multi-view learning (MVL) has garnered significant attention due to its ability to fuse discriminative information from multiple views. However, real-world multi-view datasets are often heterogeneous and imperfect, which usually makes MVL methods designed for specific combinations of views lack application potential and limits their effectiveness. To address this issue, we propose a novel robust MVL method (namely RML) with simultaneous representation fusion and alignment. Specifically, we introduce a simple yet effective multi-view transformer fusion network where we transform heterogeneous multi-view data into homogeneous word embeddings, and then integrate multiple views by the sample-level attention mechanism to obtain a fused representation. Furthermore, we propose a simulated perturbation based multi-view contrastive learning framework that dynamically generates the noise and unusable perturbations for simulating imperfect data conditions. The simulated noisy and unusable data obtain two distinct fused representations, and we utilize contrastive learning to align them for learning discriminative and robust representations. Our RML is self-supervised and can also be applied for downstream tasks as a regularization. In experiments, we employ it in unsupervised multi-view clustering, noise-label classification, and as a plug-and-play module for cross-modal hashing retrieval. Extensive comparison experiments and ablation studies validate the effectiveness of RML.
- Abstract(参考訳): 近年,多視点学習 (MVL) が注目されている。
しかし、実世界のマルチビューデータセットは、しばしば不均一で不完全であり、通常は、特定のビューの組み合わせのために設計されたMVLメソッドは、アプリケーションの可能性に欠け、その有効性を制限している。
この問題に対処するために,表現融合とアライメントを同時に行う新しい頑健なMVL法(すなわちRML)を提案する。
具体的には、不均一な多視点データを均質な単語埋め込みに変換し、サンプルレベルのアテンション機構によって複数のビューを統合して融合表現を得る、単純で効果的なマルチビュートランスフォーマー融合ネットワークを提案する。
さらに、不完全なデータ条件をシミュレートするためのノイズと使用不能な摂動を動的に生成するシミュレーション摂動に基づくマルチビューコントラスト学習フレームワークを提案する。
擬似雑音と不使用データは2つの異なる融合表現を求め, 比較学習を用いて識別的・頑健な表現を学習する。
我々のRMLは自己教師型であり、正規化として下流のタスクにも適用できます。
実験では、教師なしマルチビュークラスタリング、ノイズラベル分類、およびクロスモーダルハッシュ検索のためのプラグ・アンド・プレイモジュールとして採用する。
大規模な比較実験とアブレーション研究により、RMLの有効性が検証された。
関連論文リスト
- Generalizable and Robust Spectral Method for Multi-view Representation Learning [9.393841121141076]
近年,多視点表現学習 (MvRL) が注目されている。
グラフラプラシアンベースのMvRL法は、マルチビューデータの表現に顕著な成功を収めた。
本稿では,グラフラプラシアン手法の強みを深層学習の力と統合した,新しい融合ベースのフレームワークであるtextitSpecRaGE$を紹介する。
論文 参考訳(メタデータ) (2024-11-04T14:51:35Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - A Framework for Fine-Tuning LLMs using Heterogeneous Feedback [69.51729152929413]
ヘテロジニアスフィードバックを用いた大規模言語モデル(LLM)の微調整フレームワークを提案する。
まず、不均一なフィードバックデータをSFTやRLHFなどの手法と互換性のある単一の監視形式にまとめる。
次に、この統合されたフィードバックデータセットから、性能向上を得るために高品質で多様なサブセットを抽出する。
論文 参考訳(メタデータ) (2024-08-05T23:20:32Z) - Multiview learning with twin parametric margin SVM [0.0]
マルチビュー学習(MVL)は、相互補完するために多様な視点の利点を活用する。
マルチビュー・ツインパラメトリック・マージン支援ベクトルマシン(MvTPMSVM)を提案する。
MvTPMSVMは、両クラスに対応するパラメトリック・マージン・ハイパープレーンを構築し、異方性雑音構造の影響を規制し、管理することを目的としている。
論文 参考訳(メタデータ) (2024-08-04T10:16:11Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Hierarchical Mutual Information Analysis: Towards Multi-view Clustering
in The Wild [9.380271109354474]
この研究は、データリカバリとアライメントを階層的に一貫した方法で融合し、異なるビュー間の相互情報を最大化するディープMVCフレームワークを提案する。
私たちの知る限りでは、これは欠落したデータ問題と不整合データ問題に異なる学習パラダイムで別々に対処する最初の試みになるかもしれません。
論文 参考訳(メタデータ) (2023-10-28T06:43:57Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - A Clustering-guided Contrastive Fusion for Multi-view Representation
Learning [7.630965478083513]
本稿では、ビュー固有表現をビュー共通表現に融合する深層融合ネットワークを提案する。
また、ビュー共通表現とビュー固有表現を一致させる非対称なコントラスト戦略を設計する。
不完全な視点では,提案手法は競合相手よりもノイズ干渉に抵抗する。
論文 参考訳(メタデータ) (2022-12-28T07:21:05Z) - MORI-RAN: Multi-view Robust Representation Learning via Hybrid
Contrastive Fusion [4.36488705757229]
多視点表現学習は、クラスタリングや分類といった多くの多視点タスクに不可欠である。
ラベルのないデータから堅牢なビュー-共通表現を抽出するハイブリッドコントラスト融合アルゴリズムを提案する。
実験の結果,提案手法は実世界の4つのデータセットにおいて,12の競合的マルチビュー手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-26T09:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。