論文の概要: Multi-task Bias-Variance Trade-off Through Functional Constraints
- arxiv url: http://arxiv.org/abs/2210.15573v1
- Date: Thu, 27 Oct 2022 16:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:56:22.668820
- Title: Multi-task Bias-Variance Trade-off Through Functional Constraints
- Title(参考訳): 関数制約によるマルチタスクバイアス分散トレードオフ
- Authors: Juan Cervino, Juan Andres Bazerque, Miguel Calvo-Fullana, Alejandro
Ribeiro
- Abstract要約: マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
- 参考スコア(独自算出の注目度): 102.64082402388192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning aims to acquire a set of functions, either regressors or
classifiers, that perform well for diverse tasks. At its core, the idea behind
multi-task learning is to exploit the intrinsic similarity across data sources
to aid in the learning process for each individual domain. In this paper we
draw intuition from the two extreme learning scenarios -- a single function for
all tasks, and a task-specific function that ignores the other tasks
dependencies -- to propose a bias-variance trade-off. To control the
relationship between the variance (given by the number of i.i.d. samples), and
the bias (coming from data from other task), we introduce a constrained
learning formulation that enforces domain specific solutions to be close to a
central function. This problem is solved in the dual domain, for which we
propose a stochastic primal-dual algorithm. Experimental results for a
multi-domain classification problem with real data show that the proposed
procedure outperforms both the task specific, as well as the single
classifiers.
- Abstract(参考訳): マルチタスク学習(multi-task learning)は,レグレッシャあるいは分類器といった,さまざまなタスクに適した関数セットの獲得を目標とする。
マルチタスク学習の背景にある考え方は、各ドメインの学習プロセスを支援するために、データソース間の固有の類似性を活用することだ。
本稿では,2つの極端な学習シナリオ – すべてのタスクに対する単一関数,他のタスク依存を無視したタスク固有関数 – から直観を抽出し,バイアス分散トレードオフを提案する。
分散(i.d.サンプル数で表される)とバイアス(他のタスクのデータから来る)の関係を制御するために,ドメイン固有解を中心関数に近づけるように制約付き学習定式化を導入する。
この問題は双対領域で解かれ、確率的原始双対アルゴリズムを提案する。
実データを用いたマルチドメイン分類問題の実験結果から,提案手法はタスク固有性および単一分類器よりも優れていることがわかった。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Identification of Negative Transfers in Multitask Learning Using
Surrogate Models [29.882265735630046]
マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
マルチタスク学習における重要な問題は、ターゲットタスクに利益をもたらすソースタスクのサブセットを特定することである。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T23:16:11Z) - Multi-Task Learning with Prior Information [5.770309971945476]
本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
論文 参考訳(メタデータ) (2023-01-04T12:48:05Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。