論文の概要: MetaBalance: Improving Multi-Task Recommendations via Adapting Gradient
Magnitudes of Auxiliary Tasks
- arxiv url: http://arxiv.org/abs/2203.06801v1
- Date: Mon, 14 Mar 2022 01:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 05:15:45.647885
- Title: MetaBalance: Improving Multi-Task Recommendations via Adapting Gradient
Magnitudes of Auxiliary Tasks
- Title(参考訳): MetaBalance: 補助タスクのグラディエントマグニチュード適応によるマルチタスク勧告の改善
- Authors: Yun He, Xue Feng, Cheng Cheng, Geng Ji, Yunsong Guo, James Caverlee
- Abstract要約: マルチタスクネットワークにおける勾配の操作による補助損失のバランスをとるために,MetaBalanceを提案する。
提案手法は,NDCG@10で8.34%の大幅な改善を実現し,実世界の2つのデータセット上で最強のベースラインを達成した。
- 参考スコア(独自算出の注目度): 19.606256087873028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many personalized recommendation scenarios, the generalization ability of
a target task can be improved via learning with additional auxiliary tasks
alongside this target task on a multi-task network. However, this method often
suffers from a serious optimization imbalance problem. On the one hand, one or
more auxiliary tasks might have a larger influence than the target task and
even dominate the network weights, resulting in worse recommendation accuracy
for the target task. On the other hand, the influence of one or more auxiliary
tasks might be too weak to assist the target task. More challenging is that
this imbalance dynamically changes throughout the training process and varies
across the parts of the same network. We propose a new method: MetaBalance to
balance auxiliary losses via directly manipulating their gradients w.r.t the
shared parameters in the multi-task network. Specifically, in each training
iteration and adaptively for each part of the network, the gradient of an
auxiliary loss is carefully reduced or enlarged to have a closer magnitude to
the gradient of the target loss, preventing auxiliary tasks from being so
strong that dominate the target task or too weak to help the target task.
Moreover, the proximity between the gradient magnitudes can be flexibly
adjusted to adapt MetaBalance to different scenarios. The experiments show that
our proposed method achieves a significant improvement of 8.34% in terms of
NDCG@10 upon the strongest baseline on two real-world datasets. The code of our
approach can be found at here: https://github.com/facebookresearch/MetaBalance
- Abstract(参考訳): 多くのパーソナライズドレコメンデーションシナリオでは、ターゲットタスクの一般化能力は、マルチタスクネットワーク上のこのターゲットタスクと並行して追加の補助タスクで学習することで改善することができる。
しかし、この手法はしばしば深刻な最適化の不均衡問題に苦しむ。
一方、1つ以上の補助タスクは、ターゲットタスクよりも大きな影響力を持ち、ネットワークの重みも支配する可能性があるため、ターゲットタスクの推奨精度が低下する。
一方、1つ以上の補助的なタスクの影響は、目標タスクを支援するには弱すぎるかもしれない。
より難しいのは、トレーニングプロセス全体でこの不均衡が動的に変化し、同じネットワークの一部によって異なることです。
マルチタスクネットワークにおける共有パラメータを直接操作することで,補助的損失のバランスをとる手法を提案する。
具体的には、各トレーニングイテレーションにおいて、ネットワークの各部分に対して適応的に補助損失の勾配を慎重に縮小または拡大し、目標損失の勾配に近い大きさにし、補助タスクが目標タスクを支配するほど強くなり、目標タスクを助けるには弱すぎることを防止する。
さらに、勾配グレード間の近接性は、異なるシナリオにMetaBalanceを適用するために柔軟に調整できる。
実験の結果,提案手法はNDCG@10で8.34%の大幅な改善を実現し,実世界の2つのデータセット上で最強のベースラインを達成できた。
このアプローチのコードはこちらで確認できる。 https://github.com/facebookresearch/MetaBalance
関連論文リスト
- Perturbing the Gradient for Alleviating Meta Overfitting [6.6157730528755065]
本稿では,数ショットの学習環境におけるメタオーバーフィッティングに対処するソリューションを多数提案する。
提案手法は,非相互排他的タスク設定における学習における最先端のベースラインと比較して,一般化性能の向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T18:04:59Z) - ForkMerge: Mitigating Negative Transfer in Auxiliary-Task Learning [59.08197876733052]
補助タスク学習(ATL)は、関連するタスクから得られる知識を活用することにより、目標タスクの性能を向上させることを目的としている。
複数のタスクを同時に学習すると、ターゲットタスクのみを学習するよりも精度が低下することがある。
ForkMergeは、モデルを定期的に複数のブランチにフォークし、タスクの重みを自動的に検索する新しいアプローチである。
論文 参考訳(メタデータ) (2023-01-30T02:27:02Z) - Learning Action Translator for Meta Reinforcement Learning on
Sparse-Reward Tasks [56.63855534940827]
本研究は,訓練作業中の行動伝達子を学習するための,新たな客観的機能を導入する。
理論的には、転送されたポリシーとアクショントランスレータの値が、ソースポリシーの値に近似可能であることを検証する。
本稿では,アクショントランスレータとコンテキストベースメタRLアルゴリズムを組み合わせることで,データ収集の効率化と,メタトレーニング時の効率的な探索を提案する。
論文 参考訳(メタデータ) (2022-07-19T04:58:06Z) - Meta-learning with an Adaptive Task Scheduler [93.63502984214918]
既存のメタ学習アルゴリズムは、一様確率でランダムにメタトレーニングタスクをサンプリングする。
タスクは、限られた数のメタトレーニングタスクを考えると、ノイズや不均衡に有害である可能性が高い。
メタトレーニングプロセスのための適応タスクスケジューラ(ATS)を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:16:35Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Adaptive Transfer Learning on Graph Neural Networks [4.233435459239147]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な表現を学ぶために広く利用されている。
近年の研究では、自己教師型タスクから下流タスクへの知識伝達により、グラフ表現がさらに改善されることが示されている。
本稿では,GNN 上での移動学習パラダイムを提案する。これは,目標タスクを支援するための補助タスクとして,自己教師型タスクを効果的に活用することができる。
論文 参考訳(メタデータ) (2021-07-19T11:46:28Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。