論文の概要: Equitable Multi-task Learning
- arxiv url: http://arxiv.org/abs/2306.09373v2
- Date: Mon, 19 Jun 2023 01:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:33:14.897197
- Title: Equitable Multi-task Learning
- Title(参考訳): 等価なマルチタスク学習
- Authors: Jun Yuan and Rui Zhang
- Abstract要約: マルチタスク学習(MTL)は、CV、NLP、IRといった様々な研究領域で大きな成功を収めている。
本稿では,EMTLという新しいマルチタスク最適化手法を提案する。
本手法は,2つの研究領域の公開ベンチマークデータセットにおいて,最先端の手法よりも安定して性能を向上する。
- 参考スコア(独自算出の注目度): 18.65048321820911
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-task learning (MTL) has achieved great success in various research
domains, such as CV, NLP and IR etc. Due to the complex and competing task
correlation, naive training all tasks may lead to inequitable learning, i.e.
some tasks are learned well while others are overlooked. Multi-task
optimization (MTO) aims to improve all tasks at same time, but conventional
methods often perform poor when tasks with large loss scale or gradient norm
magnitude difference. To solve the issue, we in-depth investigate the equity
problem for MTL and find that regularizing relative contribution of different
tasks (i.e. value of task-specific loss divides its raw gradient norm) in
updating shared parameter can improve generalization performance of MTL. Based
on our theoretical analysis, we propose a novel multi-task optimization method,
named EMTL, to achieve equitable MTL. Specifically, we efficiently add variance
regularization to make different tasks' relative contribution closer. Extensive
experiments have been conduct to evaluate EMTL, our method stably outperforms
state-of-the-art methods on the public benchmark datasets of two different
research domains. Furthermore, offline and online A/B test on multi-task
recommendation are conducted too. EMTL improves multi-task recommendation
significantly, demonstrating the superiority and practicability of our method
in industrial landscape.
- Abstract(参考訳): マルチタスク学習(MTL)は,CV,NLP,IRなど,さまざまな研究領域で大きな成功を収めている。
複雑で競合するタスクの相関のため、すべてのタスクをナイーブに訓練することで、不平等な学習につながる可能性がある。
マルチタスク最適化(MTO)は、全てのタスクを同時に改善することを目的としているが、従来の手法は、大きな損失スケールや勾配ノルム等級差のあるタスクでは、しばしば不適切な処理を行う。
この問題を解決するために,MTLのエクイティ問題を詳細に検討し,共有パラメータの更新におけるタスクの相対的寄与(タスク固有の損失の値が生勾配の基準を分割する)の正則化により,MLLの一般化性能が向上することを発見した。
理論的解析に基づいて, EMTL という新しいマルチタスク最適化手法を提案し, 等価な MTL を実現する。
具体的には、異なるタスクの相対的な貢献をより近づけるために、分散正規化を効率的に追加する。
提案手法は,2つの異なる研究領域の公開ベンチマークデータセットにおいて,最先端の手法を安定的に上回っている。
さらに、マルチタスクレコメンデーションによるオフラインおよびオンラインa/bテストも実施する。
EMTLはマルチタスク・レコメンデーションを大幅に改善し,産業景観における手法の優位性と実践性を示す。
関連論文リスト
- Can Optimization Trajectories Explain Multi-Task Transfer? [19.797036312370185]
マルチタスク学習がディープラーニングの一般化に与える影響について検討する。
MTLは、単一タスクとマルチタスクの軌跡間の訓練損失に匹敵する一般化のギャップを生じる。
我々の研究は、MTLにおける障害の原因について光を当て、そして重要なことは、汎用マルチタスク最適化アルゴリズムの役割に関する疑問を提起する。
論文 参考訳(メタデータ) (2024-08-26T22:57:01Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Fair Resource Allocation in Multi-Task Learning [12.776767874217663]
マルチタスク学習(MTL)はタスク間の共有知識を活用でき、データ効率と一般化性能が向上する。
MTLにおける大きな課題は、いくつかのタスクの公平な最適化を妨げる、矛盾する勾配の存在にある。
通信ネットワークにおける公平なリソース割り当てに着想を得て,新しいMTL最適化法であるFairGradを提案する。
論文 参考訳(メタデータ) (2024-02-23T22:46:14Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - When Multi-Task Learning Meets Partial Supervision: A Computer Vision Review [7.776434991976473]
マルチタスク学習(MTL)は,相互関係を利用して複数のタスクを同時に学習することを目的としている。
このレビューは、これらの課題に対処するために、異なる部分的な監視設定の下でMTLをどのように活用するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-25T20:08:41Z) - Multi-Task Learning as a Bargaining Game [63.49888996291245]
マルチタスク学習(MTL)では、複数のタスクを同時に予測するためにジョイントモデルを訓練する。
これらの異なるタスクの勾配が矛盾する可能性があるため、MTLのジョイントモデルを訓練すると、対応するシングルタスクモデルよりも低いパフォーマンスが得られる。
本稿では,パラメータ更新のジョイント方向で合意に達するためのタスクを交渉する交渉ゲームとして,勾配の組み合わせステップを考察する。
論文 参考訳(メタデータ) (2022-02-02T13:21:53Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。