論文の概要: Saliency-Regularized Deep Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2207.01117v1
- Date: Sun, 3 Jul 2022 20:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:42:50.459212
- Title: Saliency-Regularized Deep Multi-Task Learning
- Title(参考訳): 正則化深層多タスク学習
- Authors: Guangji Bai, Liang Zhao
- Abstract要約: マルチタスク学習は、知識を共有するために複数の学習タスクを強制し、一般化能力を改善する。
現代のディープマルチタスク学習は、潜在機能とタスク共有を共同で学習することができるが、それらはタスク関係において不明瞭である。
本稿では,潜在的特徴と明示的な課題関係を共同で学習するマルチタスク学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.3810864598379755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multitask learning is a framework that enforces multiple learning tasks to
share knowledge to improve their generalization abilities. While shallow
multitask learning can learn task relations, it can only handle predefined
features. Modern deep multitask learning can jointly learn latent features and
task sharing, but they are obscure in task relation. Also, they predefine which
layers and neurons should share across tasks and cannot learn adaptively. To
address these challenges, this paper proposes a new multitask learning
framework that jointly learns latent features and explicit task relations by
complementing the strength of existing shallow and deep multitask learning
scenarios. Specifically, we propose to model the task relation as the
similarity between task input gradients, with a theoretical analysis of their
equivalency. In addition, we innovatively propose a multitask learning
objective that explicitly learns task relations by a new regularizer.
Theoretical analysis shows that the generalizability error has been reduced
thanks to the proposed regularizer. Extensive experiments on several multitask
learning and image classification benchmarks demonstrate the proposed method
effectiveness, efficiency as well as reasonableness in the learned task
relation patterns.
- Abstract(参考訳): マルチタスク学習(multitask learning)は、複数の学習タスクを強制して知識を共有し、一般化能力を改善するフレームワークである。
浅いマルチタスク学習はタスクの関係を学習できるが、事前定義された機能しか扱えない。
現代の深層マルチタスク学習は、潜在機能とタスク共有を共同で学ぶことができるが、それらはタスク関係において曖昧である。
また、どの層とニューロンがタスク間で共有すべきかを事前に定義し、適応的に学習することができない。
本稿では,既存の浅層および深層マルチタスク学習シナリオの強みを補完することにより,潜在機能と明示的なタスク関係を協調的に学習する,新しいマルチタスク学習フレームワークを提案する。
具体的には,タスク関係をタスク入力勾配の類似性としてモデル化し,その等価性を理論的に解析する。
さらに,新しい正規化器によってタスク関係を明示的に学習するマルチタスク学習目標を提案する。
理論解析により,提案する正規化器により一般化可能性誤差が低減された。
複数のマルチタスク学習および画像分類ベンチマークにおいて、学習課題関連パターンにおける提案手法の有効性、効率性、合理的性を示す。
関連論文リスト
- Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Is Multi-Task Learning an Upper Bound for Continual Learning? [26.729088618251282]
本稿では,特定のデータ拡張のクラスに対して,各タスクが不変表現を学習することに対応する,連続的な自己指導型学習環境を提案する。
連続学習は、MNIST、CIFAR-10、CIFAR-100など、様々なベンチマークデータセットでマルチタスク学習を上回ることが多い。
論文 参考訳(メタデータ) (2022-10-26T15:45:11Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - On the relationship between disentanglement and multi-task learning [62.997667081978825]
ハードパラメータ共有に基づくマルチタスク学習と絡み合いの関係について,より詳しく検討する。
マルチタスクニューラルネットワークトレーニングの過程において, 絡み合いが自然に現れることを示す。
論文 参考訳(メタデータ) (2021-10-07T14:35:34Z) - Navigating the Trade-Off between Multi-Task Learning and Learning to
Multitask in Deep Neural Networks [9.278739724750343]
マルチタスク学習(マルチタスクきゅう、英: Multi-task learning)とは、機械学習において、ネットワークがタスクの取得を容易にするために様々なタスクで訓練されるパラダイムである。
マルチタスクは、特に認知科学の文献において、複数のタスクを同時に実行する能力を示すために用いられる。
深層ネットワークでも同様の緊張が生じていることを示し、エージェントが不慣れな環境でこのトレードオフを管理するためのメタ学習アルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-07-20T23:26:16Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。