論文の概要: Identification of Negative Transfers in Multitask Learning Using
Surrogate Models
- arxiv url: http://arxiv.org/abs/2303.14582v1
- Date: Sat, 25 Mar 2023 23:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:56:59.889051
- Title: Identification of Negative Transfers in Multitask Learning Using
Surrogate Models
- Title(参考訳): 代理モデルを用いたマルチタスク学習における負転移の同定
- Authors: Dongyue Li, Huy L. Nguyen, and Hongyang R. Zhang
- Abstract要約: マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
しかし、全てのソースタスクを目標タスクと鼻で組み合わせることで、目標タスクの予測性能が常に向上するとは限らない。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 15.629564704242558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multitask learning is widely used in practice to train a low-resource target
task by augmenting it with multiple related source tasks. Yet, naively
combining all the source tasks with a target task does not always improve the
prediction performance for the target task due to negative transfers. Thus, a
critical problem in multitask learning is identifying subsets of source tasks
that would benefit the target task. This problem is computationally challenging
since the number of subsets grows exponentially with the number of source
tasks; efficient heuristics for subset selection does not always capture the
relationship between task subsets and multitask learning performances. In this
paper, we introduce an efficient procedure to address this problem via
surrogate modeling. In surrogate modeling, we sample (random) subsets of source
tasks and precompute their multitask learning performances; Then, we
approximate the precomputed performances with a linear regression model that
can also be used to predict the multitask performance of unseen task subsets.
We show theoretically and empirically that fitting this model only requires
sampling linearly many subsets in the number of source tasks. The fitted model
provides a relevance score between each source task and the target task; We use
the relevance scores to perform subset selection for multitask learning by
thresholding. Through extensive experiments, we show that our approach predicts
negative transfers from multiple source tasks to target tasks much more
accurately than existing task affinity measures. Additionally, we demonstrate
that for five weak supervision datasets, our approach consistently improves
upon existing optimization methods for multi-task learning.
- Abstract(参考訳): マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く利用されている。
しかしながら、すべてのソースタスクとターゲットタスクをネイティブに組み合わせることで、負の転送による目標タスクの予測性能が必ずしも向上するとは限らない。
したがって、マルチタスク学習における重要な問題は、ターゲットタスクに有利なソースタスクのサブセットを特定することである。
サブセット選択のための効率的なヒューリスティックは、タスクサブセットとマルチタスク学習のパフォーマンスの関係を常に捉えているとは限らない。
本稿では,代理モデルを用いてこの問題に対処する効率的な手法を提案する。
シュロゲートモデリングでは、ソースタスクの(ランダムな)サブセットをサンプリングし、そのマルチタスク学習性能を事前計算し、次に、未確認タスクサブセットのマルチタスク性能を予測できる線形回帰モデルを用いて事前計算性能を近似する。
理論的および実証的に、このモデルに適合するには、ソースタスクの数で線形に多数のサブセットをサンプリングするだけでよいことを示します。
本モデルでは,各ソースタスクと対象タスクの関連スコアを提供し,その関連スコアを用いて,しきい値によるマルチタスク学習のサブセット選択を行う。
実験により,提案手法は既存のタスク親和性尺度よりもはるかに正確に,複数のタスクからの負の移動を予測できることを示す。
さらに,5つの弱い監視データセットに対して,マルチタスク学習のための既存の最適化手法を一貫して改善することを示す。
関連論文リスト
- Task Selection and Assignment for Multi-modal Multi-task Dialogue Act
Classification with Non-stationary Multi-armed Bandits [11.682678945754837]
マルチタスク学習(MTL)は、関連する補助タスクと共同学習することで、一次タスクの性能を向上させることを目的としている。
これまでの研究では、このようなランダムなタスクの選択は役に立たない可能性があり、パフォーマンスに有害な可能性があることが示唆されている。
本稿では,非定常的マルチアームバンディットに基づくタスクの選択と割り当てを行う手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:51:51Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Active Multi-Task Representation Learning [50.13453053304159]
本研究は,アクティブラーニングの手法を活用することで,資源タスクのサンプリングに関する最初の公式な研究を行う。
提案手法は, 対象タスクに対する各ソースタスクの関連性を反復的に推定し, その関連性に基づいて各ソースタスクからサンプルを抽出するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-02T08:23:24Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Modelling Latent Skills for Multitask Language Generation [15.126163032403811]
マルチタスク条件言語生成のための生成モデルを提案する。
我々の指導的仮説は、共通の潜在スキルの集合が、多くの異なる言語生成タスクの根底にあるというものである。
このタスク埋め込み空間を潜在変数列列列モデルにおける潜在変数としてインスタンス化する。
論文 参考訳(メタデータ) (2020-02-21T20:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。