論文の概要: Learned Weight Sharing for Deep Multi-Task Learning by Natural Evolution
Strategy and Stochastic Gradient Descent
- arxiv url: http://arxiv.org/abs/2003.10159v1
- Date: Mon, 23 Mar 2020 10:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:32:37.806840
- Title: Learned Weight Sharing for Deep Multi-Task Learning by Natural Evolution
Strategy and Stochastic Gradient Descent
- Title(参考訳): 自然進化戦略と確率勾配による深層多タスク学習のための学習重量共有
- Authors: Jonas Prellberg, Oliver Kramer
- Abstract要約: 本稿では,共有重みとタスク固有の階層間の割り当てを学習するアルゴリズムを提案する。
学習は自然進化戦略と勾配降下の組み合わせによって行われる。
最終的な結果は、重みを共有しながら独立した推論を可能にするタスク固有のネットワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In deep multi-task learning, weights of task-specific networks are shared
between tasks to improve performance on each single one. Since the question,
which weights to share between layers, is difficult to answer, human-designed
architectures often share everything but a last task-specific layer. In many
cases, this simplistic approach severely limits performance. Instead, we
propose an algorithm to learn the assignment between a shared set of weights
and task-specific layers. To optimize the non-differentiable assignment and at
the same time train the differentiable weights, learning takes place via a
combination of natural evolution strategy and stochastic gradient descent. The
end result are task-specific networks that share weights but allow independent
inference. They achieve lower test errors than baselines and methods from
literature on three multi-task learning datasets.
- Abstract(参考訳): 深層マルチタスク学習では、タスク固有のネットワークの重みがタスク間で共有され、各タスクのパフォーマンスが向上する。
レイヤ間でどの重みを共有するかは答えが難しいため、ヒューマンデザインアーキテクチャは最後のタスク固有のレイヤのみを共有することが多い。
多くの場合、この単純なアプローチはパフォーマンスを著しく制限します。
そこで本研究では,共有重みとタスク固有の階層間の割り当てを学習するアルゴリズムを提案する。
微分不可能な割り当てを最適化し、同時に異なる重みを訓練するために、学習は自然進化戦略と確率勾配降下の組み合わせによって行われる。
結果として、重みは共有するが独立した推論を可能にするタスク固有のネットワークとなる。
3つのマルチタスク学習データセットの文献から、ベースラインやメソッドよりも低いテストエラーを実現する。
関連論文リスト
- Multi-Objective Optimization for Sparse Deep Multi-Task Learning [0.0]
重み付きチェビシェフスキャラライゼーションを用いたディープニューラルネットワーク(DNN)のトレーニングのための多目的最適化アルゴリズムを提案する。
本研究の目的は,DNNモデルの持続可能性問題,特にDeep Multi-Taskモデルに焦点をあてることである。
論文 参考訳(メタデータ) (2023-08-23T16:42:27Z) - DiSparse: Disentangled Sparsification for Multitask Model Compression [92.84435347164435]
DiSparseは、シンプルで効果的で、第一級のマルチタスクプルーニングとスパーストレーニングスキームである。
実験の結果,様々な設定や設定において優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-09T17:57:46Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - Instance-Level Task Parameters: A Robust Multi-task Weighting Framework [17.639472693362926]
最近の研究によると、ディープニューラルネットワークは、複数の関連するタスク間で共有表現を学習することで、マルチタスク学習の恩恵を受けている。
トレーニングプロセスは、データセットの各インスタンスに対するタスクの最適な重み付けを規定します。
我々は,SURREALとCityScapesのデータセットを用いて,人間の形状とポーズ推定,深さ推定,セマンティックセグメンテーションタスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-11T02:35:42Z) - Learning to Branch for Multi-Task Learning [12.49373126819798]
ネットワーク内の共有や分岐の場所を学習するマルチタスク学習アルゴリズムを提案する。
本稿では,木分岐操作をガムベル・ソフトマックスサンプリング手法として用いる新しい木構造設計空間を提案する。
論文 参考訳(メタデータ) (2020-06-02T19:23:21Z) - Multitask Learning with Single Gradient Step Update for Task Balancing [4.330814031477772]
マルチタスク学習に勾配に基づくメタラーニングを適用することで,タスク間のバランスをとるアルゴリズムを提案する。
提案手法を様々なマルチタスクコンピュータビジョン問題に適用し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-05-20T08:34:20Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z) - Hierarchical Reinforcement Learning as a Model of Human Task
Interleaving [60.95424607008241]
我々は、強化学習によって駆動される監督制御の階層モデルを開発する。
このモデルは、タスクインターリービングの既知の経験的効果を再現する。
その結果、階層的RLがタスクインターリービングのもっともらしいモデルとして支持された。
論文 参考訳(メタデータ) (2020-01-04T17:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。