論文の概要: Understanding and Improving Information Transfer in Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2005.00944v1
- Date: Sat, 2 May 2020 23:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:59:39.390064
- Title: Understanding and Improving Information Transfer in Multi-Task Learning
- Title(参考訳): マルチタスク学習における情報伝達の理解と改善
- Authors: Sen Wu, Hongyang R. Zhang, Christopher R\'e
- Abstract要約: すべてのタスクに対して共有モジュール,各タスクに対して別個の出力モジュールを備えたアーキテクチャについて検討する。
タスクデータ間の不一致が負の転送(または性能の低下)を引き起こし、ポジティブな転送に十分な条件を提供することを示す。
理論的洞察から着想を得た結果,タスクの埋め込みレイヤの整合がマルチタスクトレーニングやトランスファー学習のパフォーマンス向上につながることが示された。
- 参考スコア(独自算出の注目度): 14.43111978531182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate multi-task learning approaches that use a shared feature
representation for all tasks. To better understand the transfer of task
information, we study an architecture with a shared module for all tasks and a
separate output module for each task. We study the theory of this setting on
linear and ReLU-activated models. Our key observation is that whether or not
tasks' data are well-aligned can significantly affect the performance of
multi-task learning. We show that misalignment between task data can cause
negative transfer (or hurt performance) and provide sufficient conditions for
positive transfer. Inspired by the theoretical insights, we show that aligning
tasks' embedding layers leads to performance gains for multi-task training and
transfer learning on the GLUE benchmark and sentiment analysis tasks; for
example, we obtain a 2.35% GLUE score average improvement on 5 GLUE tasks over
BERT-LARGE using our alignment method. We also design an SVD-based task
reweighting scheme and show that it improves the robustness of multi-task
training on a multi-label image dataset.
- Abstract(参考訳): すべてのタスクに共通機能表現を使用するマルチタスク学習手法について検討する。
タスク情報の転送をよりよく理解するために,各タスクの共有モジュールと個別の出力モジュールを用いたアーキテクチャについて検討する。
線形およびReLU活性化モデルにおけるこの設定の理論について検討する。
我々のキーとなる観察は、タスクデータの整合性がマルチタスク学習のパフォーマンスに大きく影響するかどうかである。
タスクデータ間の不一致は負の転送(あるいはパフォーマンスを損なう)を引き起こし、正の転送に十分な条件を提供する。
この理論的な知見から,タスクの埋め込みレイヤの整合化が,GLUEベンチマークや感情分析タスクにおけるマルチタスクトレーニングや伝達学習のパフォーマンス向上につながることを示す。
また,svdに基づくタスクの重み付けスキームも設計し,マルチラベル画像データセットにおけるマルチタスクトレーニングのロバスト性が向上することを示す。
関連論文リスト
- Less is More: High-value Data Selection for Visual Instruction Tuning [127.38740043393527]
本稿では,視覚的命令データの冗長性を排除し,トレーニングコストを削減するために,高価値なデータ選択手法TIVEを提案する。
約15%のデータしか使用していない我々のアプローチは、8つのベンチマークで全データ微調整モデルに匹敵する平均性能を実現することができる。
論文 参考訳(メタデータ) (2024-03-14T16:47:25Z) - CoTBal: Comprehensive Task Balancing for Multi-Task Visual Instruction
Tuning [20.58878416527427]
LMMのマルチタスク視覚的インストラクションチューニングのための新しい包括的タスクバランシングアルゴリズムを提案する。
我々のCoTBalはマルチタスク・ビジュアル・インストラクション・チューニングにおける全体的な性能に優れています。
論文 参考訳(メタデータ) (2024-03-07T09:11:16Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - TaskMix: Data Augmentation for Meta-Learning of Spoken Intent
Understanding [0.0]
本稿では,タスクの多様性が低い場合のオーバーフィッティングという問題を,最先端のデータ拡張手法により悪化させることを示す。
本稿では,既存のタスクを線形に補間することで,新しいタスクを合成する簡単なTaskMixを提案する。
TaskMixはベースラインを上回り、タスクの多様性が低い場合の過度な適合を軽減し、高い場合でも性能が低下しないことを示す。
論文 参考訳(メタデータ) (2022-09-26T00:37:40Z) - Explaining the Effectiveness of Multi-Task Learning for Efficient
Knowledge Extraction from Spine MRI Reports [2.5953185061765884]
一つのマルチタスクモデルがタスク固有のモデルの性能にマッチすることを示す。
内科医による頚椎, 腰椎への注視所見について検討した。
論文 参考訳(メタデータ) (2022-05-06T01:51:19Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。