論文の概要: Multi-Task Learning Based on Support Vector Machines and Twin Support Vector Machines: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2510.26392v1
- Date: Thu, 30 Oct 2025 11:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.785384
- Title: Multi-Task Learning Based on Support Vector Machines and Twin Support Vector Machines: A Comprehensive Survey
- Title(参考訳): サポートベクトルマシンとツインサポートベクトルマシンに基づくマルチタスク学習:総合的調査
- Authors: Fatemeh Bazikar, Hossein Moosaei, Atefeh Hemmati, Panos M. Pardalos,
- Abstract要約: マルチタスク学習(MTL)は、関連するタスク間の同時トレーニングを可能にする。
ディープラーニングは最近のMTL研究を支配しているが、サポートベクトルマシン(SVM)とツインSVM(TWSVM)はいまだに関係している。
この章では、SVMとTWSVMに基づいたMTLアプローチを調査し、共有表現、タスクの正規化、構造的結合戦略を強調します。
- 参考スコア(独自算出の注目度): 5.143642854897123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) enables simultaneous training across related tasks, leveraging shared information to improve generalization, efficiency, and robustness, especially in data-scarce or high-dimensional scenarios. While deep learning dominates recent MTL research, Support Vector Machines (SVMs) and Twin SVMs (TWSVMs) remain relevant due to their interpretability, theoretical rigor, and effectiveness with small datasets. This chapter surveys MTL approaches based on SVM and TWSVM, highlighting shared representations, task regularization, and structural coupling strategies. Special attention is given to emerging TWSVM extensions for multi-task settings, which show promise but remain underexplored. We compare these models in terms of theoretical properties, optimization strategies, and empirical performance, and discuss applications in fields such as computer vision, natural language processing, and bioinformatics. Finally, we identify research gaps and outline future directions for building scalable, interpretable, and reliable margin-based MTL frameworks. This work provides a comprehensive resource for researchers and practitioners interested in SVM- and TWSVM-based multi-task learning.
- Abstract(参考訳): マルチタスク学習(MTL)は、特にデータスキャンや高次元シナリオにおいて、共有情報を活用して一般化、効率、堅牢性を改善する。
近年のMTL研究はディープラーニングが中心となっているが、SVM(Support Vector Machines)とTWSVM(Twin SVMs)は、その解釈可能性、理論的厳密性、小さなデータセットによる有効性など、関連性がある。
この章では、SVMとTWSVMに基づいたMTLアプローチを調査し、共有表現、タスクの正規化、構造的結合戦略を強調します。
マルチタスク設定のための新しいTWSVM拡張には特に注意が向けられている。
理論的特性,最適化戦略,経験的性能の観点からこれらのモデルを比較し,コンピュータビジョン,自然言語処理,バイオインフォマティクスなどの分野への応用について議論する。
最後に、研究ギャップを特定し、スケーラブルで解釈可能で信頼性の高いマージンベースのMTLフレームワークを構築するための今後の方向性を概説する。
この研究は、SVMおよびTWSVMベースのマルチタスク学習に関心のある研究者や実践者に、包括的なリソースを提供する。
関連論文リスト
- Training Vision-Language Process Reward Models for Test-Time Scaling in Multimodal Reasoning: Key Insights and Lessons Learned [29.44294456857936]
プロセス・リワード・モデル (Process Reward Models, PRM) は、大規模言語モデルにおける推論の信頼性を向上させる。
既存のVision-Language PRMはデータ構築にMCTS(Monte Carlo Tree Search)に依存している。
我々は,MCTSと強力なVLMの判断を組み合わせるハイブリッドデータフレームワークを導入し,より正確なステップレベルラベルを生成する。
論文 参考訳(メタデータ) (2025-09-27T10:56:58Z) - Multiview learning with twin parametric margin SVM [0.0]
マルチビュー学習(MVL)は、相互補完するために多様な視点の利点を活用する。
マルチビュー・ツインパラメトリック・マージン支援ベクトルマシン(MvTPMSVM)を提案する。
MvTPMSVMは、両クラスに対応するパラメトリック・マージン・ハイパープレーンを構築し、異方性雑音構造の影響を規制し、管理することを目的としている。
論文 参考訳(メタデータ) (2024-08-04T10:16:11Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - High-Modality Multimodal Transformer: Quantifying Modality & Interaction
Heterogeneity for High-Modality Representation Learning [112.51498431119616]
本稿では,多種多様なモダリティを含む高モダリティシナリオに対する効率的な表現学習について検討する。
単一のモデルであるHighMMTは、テキスト、画像、オーディオ、ビデオ、センサー、プロプレセプション、スピーチ、時系列、セット、テーブル)と5つの研究領域から15のタスクをスケールする。
論文 参考訳(メタデータ) (2022-03-02T18:56:20Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。