論文の概要: Exploring the Role of Task Transferability in Large-Scale Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2204.11117v1
- Date: Sat, 23 Apr 2022 18:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 12:39:42.405957
- Title: Exploring the Role of Task Transferability in Large-Scale Multi-Task
Learning
- Title(参考訳): 大規模マルチタスク学習におけるタスク転送可能性の役割の検討
- Authors: Vishakh Padmakumar, Leonard Lausen, Miguel Ballesteros, Sheng Zha, He
He, George Karypis
- Abstract要約: マルチタスク表現学習におけるタスクのスケールと関連性の影響を解消する。
目標タスクが事前に分かっている場合、関連するタスクのより小さなセットでのトレーニングは、大規模なマルチタスクトレーニングと競合する。
- 参考スコア(独自算出の注目度): 28.104054292437525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has found that multi-task training with a large number of diverse
tasks can uniformly improve downstream performance on unseen target tasks. In
contrast, literature on task transferability has established that the choice of
intermediate tasks can heavily affect downstream task performance. In this
work, we aim to disentangle the effect of scale and relatedness of tasks in
multi-task representation learning. We find that, on average, increasing the
scale of multi-task learning, in terms of the number of tasks, indeed results
in better learned representations than smaller multi-task setups. However, if
the target tasks are known ahead of time, then training on a smaller set of
related tasks is competitive to the large-scale multi-task training at a
reduced computational cost.
- Abstract(参考訳): 近年の研究では,多種多様なタスクによるマルチタスクトレーニングは,見当たらない目標タスクのダウンストリーム性能を均一に向上できることがわかった。
対照的に、タスク転送可能性に関する文献では、中間タスクの選択が下流タスクのパフォーマンスに大きく影響を与えることが確認されている。
本研究の目的は,マルチタスク表現学習におけるタスクのスケールと関連性の影響を解消することである。
平均して、タスク数の観点からみると、マルチタスク学習の規模が増加すると、より小さなマルチタスク設定よりも優れた学習表現が得られることが分かっています。
しかし、対象のタスクが事前にわかっている場合、関連するタスクのより小さなセットでのトレーニングは、計算コストの低減による大規模マルチタスクトレーニングと競合する。
関連論文リスト
- Identification of Negative Transfers in Multitask Learning Using
Surrogate Models [29.882265735630046]
マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
マルチタスク学習における重要な問題は、ターゲットタスクに利益をもたらすソースタスクのサブセットを特定することである。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T23:16:11Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。