論文の概要: Multiview learning with twin parametric margin SVM
- arxiv url: http://arxiv.org/abs/2408.01981v1
- Date: Sun, 4 Aug 2024 10:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 15:45:06.964819
- Title: Multiview learning with twin parametric margin SVM
- Title(参考訳): 双対パラメトリックマージンSVMによるマルチビュー学習
- Authors: A. Quadir, M. Tanveer,
- Abstract要約: マルチビュー学習(MVL)は、相互補完するために多様な視点の利点を活用する。
マルチビュー双対パラメトリックマージンサポートベクターマシン(MvTPMSVM)を提案する。
MvTPMSVMは、2つのクラス間のパラメトリックマージンを最大化する目的でパラメトリック超平面を構成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiview learning (MVL) seeks to leverage the benefits of diverse perspectives to complement each other, effectively extracting and utilizing the latent information within the dataset. Several twin support vector machine-based MVL (MvTSVM) models have been introduced and demonstrated outstanding performance in various learning tasks. However, MvTSVM-based models face significant challenges in the form of computational complexity due to four matrix inversions, the need to reformulate optimization problems in order to employ kernel-generated surfaces for handling non-linear cases, and the constraint of uniform noise assumption in the training data. Particularly in cases where the data possesses a heteroscedastic error structure, these challenges become even more pronounced. In view of the aforementioned challenges, we propose multiview twin parametric margin support vector machine (MvTPMSVM). MvTPMSVM constructs parametric hyperplanes with the goal of maximizing the parametric margin between two classes, aiming to regulate and manage the impact of the heteroscedastic noise structure existing within the data. The proposed MvTPMSVM model avoids the explicit computation of matrix inversions in the dual formulation, leading to enhanced computational efficiency. We perform an extensive assessment of the MvTPMSVM model using benchmark datasets such as UCI, KEEL, synthetic, and Animals with Attributes (AwA). Our experimental results, coupled with rigorous statistical analyses, confirm the superior generalization capabilities of the proposed MvTPMSVM model compared to the baseline models. The source code of the proposed MvTPMSVM model is available at \url{https://github.com/mtanveer1/MvTPMSVM}.
- Abstract(参考訳): マルチビュー学習(MVL)は、さまざまな視点の利点を活用して相互補完し、データセット内の潜伏情報を効果的に抽出し活用することを目指している。
いくつかのツインサポートベクタベースMVL(MvTSVM)モデルが導入され、様々な学習タスクで優れた性能を示した。
しかし、MvTSVMベースのモデルは、4つの行列逆転による計算複雑性の形式、非線型ケースを扱うためにカーネル生成表面を利用する最適化問題、トレーニングデータにおける一様雑音仮定の制約など、大きな課題に直面している。
特にデータがヘテロセダスティックなエラー構造を持つ場合、これらの課題はさらに顕著になる。
上記の課題を踏まえ,マルチビュー双対パラメトリック・マージン支援ベクトルマシン(MvTPMSVM)を提案する。
MvTPMSVMは、2つのクラス間のパラメトリックマージンを最大化することを目的としてパラメトリック超平面を構築し、データ内に存在する異方性雑音構造の影響を規制・管理することを目的としている。
提案したMvTPMSVMモデルは、二重定式化における行列逆変換の明示的な計算を回避し、計算効率を向上する。
UCI,KEEL,Synthetic,Animals with Attributes (AwA)といったベンチマークデータセットを用いて,MvTPMSVMモデルを広範囲に評価する。
実験結果は,厳密な統計解析と合わせて,提案したMvTPMSVMモデルのベースラインモデルと比較して,優れた一般化能力を確認した。
提案されたMvTPMSVMモデルのソースコードは、 \url{https://github.com/mtanveer1/MvTPMSVM}で入手できる。
関連論文リスト
- Balanced Multi-view Clustering [56.17836963920012]
マルチビュークラスタリング(MvC)は、さまざまなビューからの情報を統合して、基盤となるデータ構造をキャプチャするモデルの能力を高めることを目的としている。
MvCで広く使われているジョイントトレーニングパラダイムは、多視点情報を十分に活用していない可能性がある。
本稿では,ビュー固有のコントラスト正規化(VCR)を導入し,各ビューの最適化を最適化する新しいマルチビュークラスタリング(BMvC)手法を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:42:47Z) - R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the Wireless Edge [78.26352952957909]
マルチタスク大言語モデル(MTLLM)は、ユーザが複数のタスクを効率的に処理するための特殊なモデルを要求する無線エッジにおける多くのアプリケーションにとって重要である。
タスクベクトルによるモデル融合の概念は、MDLLMを生成するための微調整パラメータを組み合わせるための効率的なアプローチとして登場した。
本稿では,最悪の逆攻撃を前提として,エッジユーザがタスクベクトルを介して協調的にMTLMを作成できる問題について検討する。
論文 参考訳(メタデータ) (2024-11-27T10:57:06Z) - Granular Ball Twin Support Vector Machine [0.0]
MixtureTwinサポートベクターマシン(TSVM)における非パラメトリック可能性推定器は、分類および回帰作業に多目的に適用可能な、新興機械学習モデルである。
TSVMは、その効率性と大規模データセットの適用性に対する重大な障害に直面している。
粒状球双対支持ベクトルマシン(GBTSVM)と大型球双対支持ベクトルマシン(LS-GBTSVM)を提案する。
UCI,KEEL,NDCデータセットのベンチマークデータセットを用いて,GBTSVMおよびLS-GBTSVMモデルの総合評価を行う。
論文 参考訳(メタデータ) (2024-10-07T06:20:36Z) - Enhancing Multiview Synergy: Robust Learning by Exploiting the Wave Loss Function with Consensus and Complementarity Principles [0.0]
本稿では、ウェーブロス(W-loss)関数を利用した新しいマルチビューサポートベクターマシンであるWave-MvSVMを紹介する。
Wave-MvSVMは、コンセンサスと相補性の両方の原則を統合することで、より包括的でレジリエントな学習プロセスを保証する。
多様なデータセットにわたる大規模な経験的評価は、Wave-MvSVMの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-13T11:25:22Z) - Preventing Model Collapse in Gaussian Process Latent Variable Models [11.45681373843122]
本稿では,線形フーリエVMのレンズによるモデル崩壊に対する射影分散の影響を理論的に検討する。
我々は、スペクトル混合(SM)カーネルと微分可能乱数特徴(RFF)カーネル近似を統合することにより、カーネルの柔軟性が不十分なため、モデル崩壊に取り組む。
提案したVMは、アドバイスRFLVMと呼ばれ、さまざまなデータセットで評価され、さまざまな競合モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-04-02T06:58:41Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Online Multi-Task Learning with Recursive Least Squares and Recursive Kernel Methods [50.67996219968513]
本稿では,オンラインマルチタスク学習(MTL)回帰問題に対する2つの新しいアプローチを紹介する。
入力空間の次元の2次パースタンスコストで精度よく近似的な再帰を実現する。
我々は,実世界の風速予測ケーススタディにおいて,オンラインMTL法と他の競技者との比較を行った。
論文 参考訳(メタデータ) (2023-08-03T01:41:34Z) - Enhancing Pattern Classification in Support Vector Machines through
Matrix Formulation [0.0]
既存のSVMベースのモデルにおけるベクトルベースの定式化への依存は、柔軟性と、特定の問題に対処するために追加用語を組み込むことの容易さに関する制限を生じさせる。
我々はこれらの制約を効果的に解決するSVMの行列定式化を導入する。
マルチラベルおよびマルチクラスデータセットの実験的評価は、Matrix SVMがより優れた時間効率を実現することを示す。
論文 参考訳(メタデータ) (2023-07-18T15:56:39Z) - Robust Twin Parametric Margin Support Vector Machine for Multiclass Classification [0.0]
本稿では,マルチクラス分類の問題に対処するために,Twin Parametric Margin Support Vector Machine (TPMSVM) モデルを提案する。
各サンプルの周囲に有界・ノルム不確実性集合を構築し,決定論的モデルの頑健な対応を導出する。
提案したTPMSVM手法を実世界のデータセット上でテストし,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-09T19:27:24Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。