論文の概要: An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems
- arxiv url: http://arxiv.org/abs/2205.12755v1
- Date: Wed, 25 May 2022 13:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:27:57.733145
- Title: An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems
- Title(参考訳): 大規模マルチタスク学習システムにおける動的タスク導入への進化的アプローチ
- Authors: Andrea Gesmundo and Jeff Dean
- Abstract要約: マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
- 参考スコア(独自算出の注目度): 4.675744559395732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multitask learning assumes that models capable of learning from multiple
tasks can achieve better quality and efficiency via knowledge transfer, a key
feature of human learning. Though, state of the art ML models rely on high
customization for each task and leverage size and data scale rather than
scaling the number of tasks. Also, continual learning, that adds the temporal
aspect to multitask, is often focused to the study of common pitfalls such as
catastrophic forgetting instead of being studied at a large scale as a critical
component to build the next generation artificial intelligence. We propose an
evolutionary method that can generate a large scale multitask model, and can
support the dynamic and continuous addition of new tasks. The generated
multitask model is sparsely activated and integrates a task-based routing that
guarantees bounded compute cost and fewer added parameters per task as the
model expands. The proposed method relies on a knowledge compartmentalization
technique to achieve immunity against catastrophic forgetting and other common
pitfalls such as gradient interference and negative transfer. We empirically
show that the proposed method can jointly solve and achieve competitive results
on 69image classification tasks, for example achieving the best test accuracy
reported fora model trained only on public data for competitive tasks such as
cifar10: 99.43%.
- Abstract(参考訳): マルチタスク学習は、人間の学習の重要な特徴である知識伝達によって、複数のタスクから学習できるモデルがより良い品質と効率を達成すると仮定する。
しかし、最先端のMLモデルはタスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
また、マルチタスクに時間的側面を加える連続学習は、次世代人工知能を構築する上で重要な要素として大規模に研究されるのではなく、破滅的な忘れなどの共通の落とし穴の研究にしばしば焦点が当てられる。
本稿では,大規模マルチタスクモデルを生成可能な進化的手法を提案し,新しいタスクの動的かつ連続的な追加を支援する。
生成されたマルチタスクモデルはスパースにアクティベートされ、境界のある計算コストと、モデルの拡張に伴うタスク毎のパラメータの削減を保証するタスクベースのルーティングを統合する。
提案手法は, 破滅的忘れに対する免疫と, 勾配干渉や負の移動などの一般的な落とし穴を実現するための知識区画化技術に依存している。
例えば、cifar10:99.43%のような競合タスクに対して、公開データのみでトレーニングされたモデルに対して、最高のテスト精度を達成できる。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Exploring intra-task relations to improve meta-learning algorithms [1.223779595809275]
我々は,タスクの効果的なミニバッチによるトレーニング安定性向上のために,タスク関係の外部知識を活用することを目的としている。
ミニバッチでタスクの多様なセットを選択すると、完全な勾配がより良く見積もられるため、トレーニングにおけるノイズの低減につながる、という仮説を立てる。
論文 参考訳(メタデータ) (2023-12-27T15:33:52Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Prototype-guided Cross-task Knowledge Distillation for Large-scale
Models [103.04711721343278]
クロスタスクの知識蒸留は、競争力のあるパフォーマンスを得るために小さな学生モデルを訓練するのに役立ちます。
本稿では,大規模教師ネットワークの内在的ローカルレベルのオブジェクト知識を様々なタスクシナリオに転送するための,プロトタイプ誘導型クロスタスク知識蒸留(ProC-KD)アプローチを提案する。
論文 参考訳(メタデータ) (2022-12-26T15:00:42Z) - muNet: Evolving Pretrained Deep Neural Networks into Scalable
Auto-tuning Multitask Systems [4.675744559395732]
今日の機械学習のほとんどの用途は、特定のタスクのスクラッチからモデルをトレーニングすることや、関連するタスクで事前訓練されたモデルから始めて、下流タスクで微調整することである。
本稿では、事前訓練されたディープニューラルネットワークの層をビルディングブロックとして利用し、任意のタスクを共同で解決できるMLシステムを構築する方法を提案する。
得られたシステムはクロスタスクの知識伝達を利用でき、破滅的な忘れ、勾配の干渉、負の伝達といったマルチタスクアプローチの共通の欠点に免疫を持つ。
論文 参考訳(メタデータ) (2022-05-22T21:54:33Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Boosting a Model Zoo for Multi-Task and Continual Learning [15.110807414130923]
モデル動物園」はモデルのアンサンブルを構築するアルゴリズムであり、それぞれが非常に小さく、小さなタスクセットで訓練されている。
モデルZooは,マルチタスクおよび連続学習における最先端手法と比較して,予測精度が大きく向上する。
論文 参考訳(メタデータ) (2021-06-06T04:25:09Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。