論文の概要: Multitask Learning with Single Gradient Step Update for Task Balancing
- arxiv url: http://arxiv.org/abs/2005.09910v2
- Date: Tue, 2 Jun 2020 12:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:56:56.417019
- Title: Multitask Learning with Single Gradient Step Update for Task Balancing
- Title(参考訳): タスクバランシングのための単一勾配ステップ更新によるマルチタスク学習
- Authors: Sungjae Lee, Youngdoo Son
- Abstract要約: マルチタスク学習に勾配に基づくメタラーニングを適用することで,タスク間のバランスをとるアルゴリズムを提案する。
提案手法を様々なマルチタスクコンピュータビジョン問題に適用し,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 4.330814031477772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multitask learning is a methodology to boost generalization performance and
also reduce computational intensity and memory usage. However, learning
multiple tasks simultaneously can be more difficult than learning a single task
because it can cause imbalance among tasks. To address the imbalance problem,
we propose an algorithm to balance between tasks at the gradient level by
applying gradient-based meta-learning to multitask learning. The proposed
method trains shared layers and task-specific layers separately so that the two
layers with different roles in a multitask network can be fitted to their own
purposes. In particular, the shared layer that contains informative knowledge
shared among tasks is trained by employing single gradient step update and
inner/outer loop training to mitigate the imbalance problem at the gradient
level. We apply the proposed method to various multitask computer vision
problems and achieve state-of-the-art performance.
- Abstract(参考訳): マルチタスク学習は、一般化性能を高め、計算強度とメモリ使用量を減らす手法である。
しかし,複数のタスクを同時に学習することは,ひとつのタスクを学習するよりも難しい場合がある。
不均衡問題に対処するために,勾配に基づくメタラーニングをマルチタスク学習に適用することにより,タスク間のバランスをとるアルゴリズムを提案する。
提案手法は共有層とタスク固有の層を個別に訓練し,マルチタスクネットワークにおいて異なる役割を持つ2つの層をそれぞれの目的に適合させることができる。
特に、タスク間で共有される情報的知識を含む共有層を、単一の勾配ステップ更新とインナー/インナーループトレーニングを用いて訓練し、勾配レベルでの不均衡問題を緩和する。
提案手法を様々なマルチタスクコンピュータビジョン問題に適用し,最新性能を実現する。
関連論文リスト
- Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - HydaLearn: Highly Dynamic Task Weighting for Multi-task Learning with
Auxiliary Tasks [4.095907708855597]
マルチタスク学習(MTL)は、1つ以上の関連する補助タスクと表現を共有することでタスクのパフォーマンスを向上させることができる。
通常、MTL-networksは、個別のタスク損失の一定の重み付けによる複合損失関数に基づいて訓練される。
実際には, 一定損失重みは, (i) ミニバッチに基づく最適化において, 最適タスク重みは, ミニバッチのサンプル組成に応じて, 更新から次へと大きく変化する。
メインタスクのゲインを個別のタスク勾配に結びつけるインテリジェントな重み付けアルゴリズムであるHydaLearnを導入して,その情報を伝達する。
論文 参考訳(メタデータ) (2020-08-26T16:04:02Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Learned Weight Sharing for Deep Multi-Task Learning by Natural Evolution
Strategy and Stochastic Gradient Descent [0.0]
本稿では,共有重みとタスク固有の階層間の割り当てを学習するアルゴリズムを提案する。
学習は自然進化戦略と勾配降下の組み合わせによって行われる。
最終的な結果は、重みを共有しながら独立した推論を可能にするタスク固有のネットワークである。
論文 参考訳(メタデータ) (2020-03-23T10:21:44Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。