論文の概要: Boosting Share Routing for Multi-task Learning
- arxiv url: http://arxiv.org/abs/2009.00387v2
- Date: Mon, 1 Mar 2021 12:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:44:40.376316
- Title: Boosting Share Routing for Multi-task Learning
- Title(参考訳): マルチタスク学習のための共有ルーティングの強化
- Authors: Xiaokai Chen and Xiaoguang Gu and Libo Fu
- Abstract要約: マルチタスク学習(MTL)は、マルチタスク監視信号に含まれる知識をフル活用して、全体的なパフォーマンスを向上させることを目的としている。
複数のタスクの知識を適切に共有する方法は、MTLにとってオープンな問題である。
本稿では,MTNAS(Multi-Task Neural Architecture Search)と呼ばれる汎用フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.12891210250935145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning (MTL) aims to make full use of the knowledge contained in
multi-task supervision signals to improve the overall performance. How to make
the knowledge of multiple tasks shared appropriately is an open problem for
MTL. Most existing deep MTL models are based on parameter sharing. However,
suitable sharing mechanism is hard to design as the relationship among tasks is
complicated. In this paper, we propose a general framework called Multi-Task
Neural Architecture Search (MTNAS) to efficiently find a suitable sharing route
for a given MTL problem. MTNAS modularizes the sharing part into multiple
layers of sub-networks. It allows sparse connection among these sub-networks
and soft sharing based on gating is enabled for a certain route. Benefiting
from such setting, each candidate architecture in our search space defines a
dynamic sparse sharing route which is more flexible compared with full-sharing
in previous approaches. We show that existing typical sharing approaches are
sub-graphs in our search space. Extensive experiments on three real-world
recommendation datasets demonstrate MTANS achieves consistent improvement
compared with single-task models and typical multi-task methods while
maintaining high computation efficiency. Furthermore, in-depth experiments
demonstrates that MTNAS can learn suitable sparse route to mitigate negative
transfer.
- Abstract(参考訳): マルチタスク学習(MTL)は、マルチタスク監視信号に含まれる知識をフル活用して、全体的なパフォーマンスを向上させることを目的としている。
複数のタスクの知識を適切に共有する方法は、MTLにとってオープンな問題である。
既存のディープmtlモデルはパラメータ共有に基づいている。
しかし、タスク間の関係が複雑であるため、適切な共有メカニズムの設計は困難である。
本稿では,与えられたmtl問題の適切な共有経路を効率的に見つけるために,マルチタスク・ニューラル・アーキテクチャ・サーチ(mtnas)と呼ばれる汎用フレームワークを提案する。
MTNASは共有部分を複数のサブネットワーク層にモジュール化する。
サブネットワーク間の疎結合を可能にし、ゲーティングに基づくソフトシェアリングを特定のルートで可能にする。
このような状況から、我々の検索空間における各候補アーキテクチャーは、従来のアプローチに比べてより柔軟な動的スパース共有経路を定義する。
既存の共有手法は検索空間のサブグラフであることを示す。
3つの実世界のレコメンデーションデータセットに関する大規模な実験は、MTANSが高い計算効率を維持しながらシングルタスクモデルや典型的なマルチタスク手法と比較して一貫した改善を達成することを示した。
さらに詳細な実験では、MTNASは負転移を緩和するために適切なスパース経路を学習できることを示した。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - HiNet: Novel Multi-Scenario & Multi-Task Learning with Hierarchical Information Extraction [50.40732146978222]
マルチシナリオとマルチタスク学習は、産業アプリケーションにおける多くのレコメンデーションシステムに広く応用されている。
階層型情報抽出ネットワーク(HiNet)を提案する。
HiNetは、新しい最先端のパフォーマンスを実現し、既存のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-10T17:24:41Z) - Provable Pathways: Learning Multiple Tasks over Multiple Paths [31.43753806123382]
複数の経路上の複数のタスクを学習する経験的リスク最小化問題に対する新しい一般化境界を開発する。
同時に、新しい下流タスクに適応する際のマルチパス表現の利点を形式化する。
論文 参考訳(メタデータ) (2023-03-08T02:25:28Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Multi-Task Learning as a Bargaining Game [63.49888996291245]
マルチタスク学習(MTL)では、複数のタスクを同時に予測するためにジョイントモデルを訓練する。
これらの異なるタスクの勾配が矛盾する可能性があるため、MTLのジョイントモデルを訓練すると、対応するシングルタスクモデルよりも低いパフォーマンスが得られる。
本稿では,パラメータ更新のジョイント方向で合意に達するためのタスクを交渉する交渉ゲームとして,勾配の組み合わせステップを考察する。
論文 参考訳(メタデータ) (2022-02-02T13:21:53Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Rethinking Hard-Parameter Sharing in Multi-Task Learning [20.792654758645302]
マルチタスク学習(MTL)におけるハードパラメータ共有により、タスクはモデルのパラメータの一部を共有でき、ストレージコストを低減し、予測精度を向上させることができる。
共通の共有プラクティスは、タスク毎に別々のトップレイヤを使用しながら、タスク間でディープニューラルネットワークのボトムレイヤを共有することだ。
異なるボトム層パラメータを使用することで、一般的なプラクティスよりも大幅にパフォーマンスが向上する可能性がある。
論文 参考訳(メタデータ) (2021-07-23T17:26:40Z) - Learning Twofold Heterogeneous Multi-Task by Sharing Similar Convolution
Kernel Pairs [24.044458897098913]
不均一マルチタスク学習(HMTL)はマルチタスク学習(MTL)において重要なトピックです。
このようなTHMTL設定で複数のタスクを学ぶために、シンプルで効果的なマルチタスク適応学習(MTAL)ネットワークを設計します。
本モデルは,ネットワーク全体の冗長性を抑えつつ,クロスタスク学習を効果的に行う。
論文 参考訳(メタデータ) (2021-01-29T06:52:19Z) - Multi-Task Learning with Deep Neural Networks: A Survey [0.0]
マルチタスク学習(Multi-task learning、MTL)は、複数のタスクを共有モデルで同時に学習する機械学習のサブフィールドである。
深層ニューラルネットワークにおけるマルチタスク学習手法の概要を述べる。
論文 参考訳(メタデータ) (2020-09-10T19:31:04Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。