論文の概要: Multi-task twin support vector machine with Universum data
- arxiv url: http://arxiv.org/abs/2206.10978v1
- Date: Wed, 22 Jun 2022 11:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 23:49:21.706274
- Title: Multi-task twin support vector machine with Universum data
- Title(参考訳): ユニバーサムデータを用いたマルチタスクツインサポートベクタマシン
- Authors: Hossein Moosaei, Fatemeh Bazikar, Milan Hlad\'ik
- Abstract要約: 本研究では,Universumデータを用いたマルチタスク学習の課題について考察する。
UMTSVM(Universum Data)を用いたマルチタスクツインサポートベクタマシンを提案し,そのソリューションに2つのアプローチを提供する。
いくつかの一般的なマルチタスクデータセットと医療データセットに関する数値実験により,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-task learning (MTL) has emerged as a promising topic of machine
learning in recent years, aiming to enhance the performance of numerous related
learning tasks by exploiting beneficial information. During the training phase,
most of the existing multi-task learning models concentrate entirely on the
target task data and ignore the non-target task data contained in the target
tasks. To address this issue, Universum data, that do not correspond to any
class of a classification problem, may be used as prior knowledge in the
training model. This study looks at the challenge of multi-task learning using
Universum data to employ non-target task data, which leads to better
performance. It proposes a multi-task twin support vector machine with
Universum data (UMTSVM) and provides two approaches to its solution. The first
approach takes into account the dual formulation of UMTSVM and tries to solve a
quadratic programming problem. The second approach formulates a least-squares
version of UMTSVM and refers to it as LS-UMTSVM to further increase the
generalization performance. The solution of the two primal problems in
LS-UMTSVM is simplified to solving just two systems of linear equations,
resulting in an incredibly simple and quick approach. Numerical experiments on
several popular multi-task data sets and medical data sets demonstrate the
efficiency of the proposed methods.
- Abstract(参考訳): 近年、多タスク学習(MTL)が機械学習の有望なトピックとして登場し、有益な情報を活用することで、多くの関連する学習タスクのパフォーマンス向上を目指している。
トレーニングフェーズの間、既存のマルチタスク学習モデルのほとんどは、ターゲットタスクデータに完全に集中し、ターゲットタスクに含まれる非ターゲットタスクデータを無視します。
この問題に対処するために、分類問題のどのクラスにも対応しない大学データは、トレーニングモデルにおける事前知識として使用できる。
本研究では,単元データを用いたマルチタスク学習の課題について検討し,非目標タスクデータを用いることにより,高いパフォーマンスを実現する。
UMTSVM(Universum Data)を用いたマルチタスクツインサポートベクタマシンを提案し,そのソリューションに2つのアプローチを提供する。
最初のアプローチはUMTSVMの2つの定式化を考慮しており、二次プログラミング問題の解決を試みるものである。
2つ目のアプローチはUMTSVMの最小2乗バージョンを定式化し、一般化性能をさらに向上させるためにLS-UMTSVMと呼ぶ。
LS-UMTSVMにおける2つの原始問題の解法は、線形方程式の2つの系を解くために単純化され、非常に単純で迅速なアプローチをもたらす。
複数の一般的なマルチタスクデータセットと医療データセットに関する数値実験により,提案手法の有効性が示された。
関連論文リスト
- SGW-based Multi-Task Learning in Vision Tasks [8.459976488960269]
データセットの規模が拡大し、タスクの複雑さが増すにつれ、知識の共有はますます困難になってきている。
情報ボトルネック知識抽出モジュール(KEM)を提案する。
このモジュールは,情報の流れを制約することでタスク間干渉を減らすことを目的としており,計算複雑性を低減する。
論文 参考訳(メタデータ) (2024-10-03T13:56:50Z) - MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - JiuZhang 2.0: A Unified Chinese Pre-trained Language Model for
Multi-task Mathematical Problem Solving [77.51817534090789]
マルチタスク数学問題の解法を専門とする統一中国語 PLM である textbfJiuZhang2.0 を提案する。
我々の考えは、中規模のモデルを維持し、マルチタスク設定におけるモデル容量を改善するために、Emphcross-taskの知識共有を利用することである。
論文 参考訳(メタデータ) (2023-06-19T15:45:36Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Multi-Task Meta Learning: learn how to adapt to unseen tasks [4.287114092271669]
本研究は,Multi-Task Learning(MTL)とメタラーニングという2つの学習パラダイムを統合する,MTML(Multi-task Meta Learning)を提案する。
基本的な考え方はマルチタスクモデルをトレーニングすることであり、例えば、目に見えないタスクを導入すると、より少ないステップで学習できると同時に、パフォーマンスを従来の単一タスク学習と同程度に向上させることができる。
MTMLは、NYU-v2データセットの4つのタスクのうち3つと、タスクノミーデータセットの4つのうち2つのタスクに対して、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-10-13T12:59:54Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - On-edge Multi-task Transfer Learning: Model and Practice with
Data-driven Task Allocation [20.20889051697198]
マルチタスク・トランスファー・ラーニング(MTL)におけるタスク・アロケーションは,NP完全Knapsack問題の変種であることを示す。
我々は,データ駆動型協調作業割当(DCTA)アプローチを提案し,高い計算効率でTATIMを解く。
我々のDCTAは処理時間の3.24倍を削減し、TATIMを解く際の最先端技術と比較して48.4%の省エネを図っている。
論文 参考訳(メタデータ) (2021-07-06T08:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。