論文の概要: Adaptive Weighted LSSVM for Multi-View Classification
- arxiv url: http://arxiv.org/abs/2512.02653v1
- Date: Tue, 02 Dec 2025 11:14:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.841716
- Title: Adaptive Weighted LSSVM for Multi-View Classification
- Title(参考訳): 多視点分類のための適応重み付きLSSVM
- Authors: Farnaz Faramarzi Lighvan, Mehrdad Asadi, Lynn Houthuys,
- Abstract要約: AW-LSSVMは、反復的なグローバルカップリングによる補完的な学習を促進し、各ビューが以前のイテレーションからの他人のハードサンプルに集中できるようにします。
実験では、AW-LSSVMは既存のカーネルベースのマルチビューメソッドよりも多くのデータセットで優れています。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-view learning integrates diverse representations of the same instances to improve performance. Most existing kernel-based multi-view learning methods use fusion techniques without enforcing an explicit collaboration type across views or co-regularization which limits global collaboration. We propose AW-LSSVM, an adaptive weighted LS-SVM that promotes complementary learning by an iterative global coupling to make each view focus on hard samples of others from previous iterations. Experiments demonstrate that AW-LSSVM outperforms existing kernel-based multi-view methods on most datasets, while keeping raw features isolated, making it also suitable for privacy-preserving scenarios.
- Abstract(参考訳): マルチビュー学習は、パフォーマンスを改善するために、同じインスタンスの多様な表現を統合する。
既存のカーネルベースのマルチビュー学習手法では、ビュー間の明示的なコラボレーションタイプや、グローバルなコラボレーションを制限する共同正規化を強制することなく、融合技術を使用することが多い。
AW-LSSVMは適応重み付きLS-SVMで、反復的グローバルカップリングによる補完学習を促進し、各ビューが以前のイテレーションからのハードサンプルにフォーカスできるようにする。
AW-LSSVMは、ほとんどのデータセットで既存のカーネルベースのマルチビューメソッドよりも優れており、生の機能を分離したままであり、プライバシ保護シナリオにも適している。
関連論文リスト
- Self-Supervised Learning with a Multi-Task Latent Space Objective [71.49269645849675]
自己教師付き学習(SSL)メソッドは、同じイメージの異なるビューを整列することで視覚表現を学ぶ。
それぞれのビュータイプに個別の予測器を割り当てると、マルチクロップトレーニングが安定し、性能が大幅に向上することを示す。
これは、グローバル、ローカル、マスクされたビューを単一のフレームワークに組み合わせた、非対称なシームズSSLの単純なマルチタスクの定式化をもたらす。
論文 参考訳(メタデータ) (2026-02-05T16:33:30Z) - Multi-view mid fusion: a universal approach for learning in an HDLSS setting [0.0]
本稿では,多視点中核融合技術を用いたHDLSS設定における普遍的な学習手法を提案する。
本手法は,HDLSS設定において,たとえ固有のビューが提供されていなくても,既存のMid fusion Multi-viewメソッドがどのように機能するかを示す。
論文 参考訳(メタデータ) (2025-07-08T14:31:53Z) - Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation [61.64052577026623]
実世界のマルチビューデータセットは、しばしば不均一で不完全である。
本稿では,表現融合とアライメントを同時に行う新しいロバストMVL法(RML)を提案する。
我々のRMLは自己教師型であり、正規化として下流のタスクにも適用できます。
論文 参考訳(メタデータ) (2025-03-06T07:01:08Z) - Balanced Multi-view Clustering [56.17836963920012]
マルチビュークラスタリング(MvC)は、さまざまなビューからの情報を統合して、基盤となるデータ構造をキャプチャするモデルの能力を高めることを目的としている。
MvCで広く使われているジョイントトレーニングパラダイムは、多視点情報を十分に活用していない可能性がある。
本稿では,ビュー固有のコントラスト正規化(VCR)を導入し,各ビューの最適化を最適化する新しいマルチビュークラスタリング(BMvC)手法を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:42:47Z) - A Novel Approach for Effective Multi-View Clustering with
Information-Theoretic Perspective [24.630259061774836]
本研究では,多視点クラスタリングフレームワークを情報理論の観点から検討する,SUMVC(Sufficient Multi-View Clustering)と呼ばれる新しい手法を提案する。
まず,変分解析を用いて一貫した情報を生成する,シンプルで信頼性の高いマルチビュークラスタリング手法SCMVCを開発する。
次に、一貫した情報を強化し、ビュー間の不要な情報を最小限に抑えるのに十分な表現境界を提案する。
論文 参考訳(メタデータ) (2023-09-25T09:41:11Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Self-Learning Symmetric Multi-view Probabilistic Clustering [35.96327818838784]
マルチビュークラスタリング(MVC)は、複数の視点から知識を学ぶための多くの取り組みによって、大きな進歩を遂げている。
既存のほとんどのメソッドは適用できないか、あるいは不完全なMVCに追加の手順を必要とする。
自己学習対称多視点確率クラスタリングという,不完全かつ完全なMVCのための新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-12T08:27:03Z) - Learning Visual Representation from Modality-Shared Contrastive
Language-Image Pre-training [88.80694147730883]
本稿では,多種多様なモダリティ共有コントラスト言語-画像事前学習(MS-CLIP)フレームワークについて検討する。
学習条件下では、視覚と言語信号のためのほとんど統一されたエンコーダが、より多くのパラメータを分離する他のすべてのバリエーションより優れていることが観察された。
我々のアプローチは、24の下流視覚タスクのコレクションに基づいて、線形探索においてバニラCLIPを1.6ポイント上回ります。
論文 参考訳(メタデータ) (2022-07-26T05:19:16Z) - Multi-view Subspace Adaptive Learning via Autoencoder and Attention [3.8574404853067215]
我々は,アテンションとオートエンコーダ(MSALAA)に基づくマルチビューサブスペース適応学習を提案する。
この方法は、ディープオートエンコーダと、様々なビューの自己表現を調整する方法を組み合わせる。
6つの実生活データセット上で,既存のベースライン手法に対する顕著な改善を実証的に観察した。
論文 参考訳(メタデータ) (2022-01-01T11:31:52Z) - Embedded Deep Bilinear Interactive Information and Selective Fusion for
Multi-view Learning [70.67092105994598]
本稿では,上記の2つの側面に着目した,新しい多視点学習フレームワークを提案する。
特に、さまざまな深層ニューラルネットワークをトレーニングして、様々なビュー内表現を学習する。
6つの公開データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-13T01:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。