論文の概要: ForkMerge: Overcoming Negative Transfer in Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2301.12618v1
- Date: Mon, 30 Jan 2023 02:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 15:52:51.919134
- Title: ForkMerge: Overcoming Negative Transfer in Multi-Task Learning
- Title(参考訳): ForkMerge: マルチタスク学習におけるネガティブトランスファーの克服
- Authors: Junguang Jiang, Baixu Chen, Junwei Pan, Ximei Wang, Liu Dapeng, Jie
Jiang, Mingsheng Long
- Abstract要約: 複数のタスクを同時に学習すると、個別に学習するよりもパフォーマンスが悪くなります。
ForkMergeは、モデルを異なるタスク重みを持つ複数のブランチに定期的にフォークし、動的にマージして有害パラメータの更新をフィルタリングする。
一連のマルチタスク学習タスクにおいて、ForkMergeは最先端のメソッドよりも改善されたパフォーマンスを実現し、負の転送を回避している。
- 参考スコア(独自算出の注目度): 54.16997852565098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of multi-task learning is to utilize useful knowledge from multiple
related tasks to improve the generalization performance of all tasks. However,
learning multiple tasks simultaneously often results in worse performance than
learning them independently, which is known as negative transfer. Most previous
works attribute negative transfer in multi-task learning to gradient conflicts
between different tasks and propose several heuristics to manipulate the task
gradients for mitigating this problem, which mainly considers the optimization
difficulty and overlooks the generalization problem. To fully understand the
root cause of negative transfer, we experimentally analyze negative transfer
from the perspectives of optimization, generalization, and hypothesis space.
Stemming from our analysis, we introduce ForkMerge, which periodically forks
the model into multiple branches with different task weights, and merges
dynamically to filter out detrimental parameter updates to avoid negative
transfer. On a series of multi-task learning tasks, ForkMerge achieves improved
performance over state-of-the-art methods and largely avoids negative transfer.
- Abstract(参考訳): マルチタスク学習の目的は、複数のタスクから有用な知識を活用し、全てのタスクの一般化性能を改善することである。
しかし、複数のタスクを同時に学習すると、独立して学習するよりもパフォーマンスが悪くなります。
従来の研究の多くは、マルチタスク学習における負の移動を、異なるタスク間の衝突の勾配に起因し、この問題を緩和するためのタスク勾配を操作するためのいくつかのヒューリスティックを提案している。
負転移の根本原因を十分に理解するために,最適化,一般化,仮説空間の観点から負転移を実験的に解析する。
ForkMergeは、タスク重みの異なる複数のブランチにモデルを定期的にフォークし、動的にマージすることで、負の転送を避けるために有害パラメータの更新をフィルタリングする。
一連のマルチタスク学習タスクにおいて、ForkMergeは最先端のメソッドよりもパフォーマンスが向上し、負の転送を回避している。
関連論文リスト
- Task Weighting through Gradient Projection for Multitask Learning [5.5967570276373655]
マルチタスク学習では、タスク勾配間の衝突は、モデルのトレーニングパフォーマンスを劣化させる頻繁な問題である。
本研究では,タスク優先順位付けを同時に行うために,グラディエント・プロジェクション・アルゴリズムであるPCGradを適用する手法を提案する。
従来のタスクの重み付けとは違い、重み付け方式は、タスクが矛盾している場合にのみ適用されるが、トレーニングを妨げない場合にのみ適用される。
論文 参考訳(メタデータ) (2024-09-03T11:17:44Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - TaskMix: Data Augmentation for Meta-Learning of Spoken Intent
Understanding [0.0]
本稿では,タスクの多様性が低い場合のオーバーフィッティングという問題を,最先端のデータ拡張手法により悪化させることを示す。
本稿では,既存のタスクを線形に補間することで,新しいタスクを合成する簡単なTaskMixを提案する。
TaskMixはベースラインを上回り、タスクの多様性が低い場合の過度な適合を軽減し、高い場合でも性能が低下しないことを示す。
論文 参考訳(メタデータ) (2022-09-26T00:37:40Z) - Learning Action Translator for Meta Reinforcement Learning on
Sparse-Reward Tasks [56.63855534940827]
本研究は,訓練作業中の行動伝達子を学習するための,新たな客観的機能を導入する。
理論的には、転送されたポリシーとアクショントランスレータの値が、ソースポリシーの値に近似可能であることを検証する。
本稿では,アクショントランスレータとコンテキストベースメタRLアルゴリズムを組み合わせることで,データ収集の効率化と,メタトレーニング時の効率的な探索を提案する。
論文 参考訳(メタデータ) (2022-07-19T04:58:06Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Adaptive Transfer Learning on Graph Neural Networks [4.233435459239147]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な表現を学ぶために広く利用されている。
近年の研究では、自己教師型タスクから下流タスクへの知識伝達により、グラフ表現がさらに改善されることが示されている。
本稿では,GNN 上での移動学習パラダイムを提案する。これは,目標タスクを支援するための補助タスクとして,自己教師型タスクを効果的に活用することができる。
論文 参考訳(メタデータ) (2021-07-19T11:46:28Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。