論文の概要: Boosting a Model Zoo for Multi-Task and Continual Learning
- arxiv url: http://arxiv.org/abs/2106.03027v1
- Date: Sun, 6 Jun 2021 04:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:52:22.263962
- Title: Boosting a Model Zoo for Multi-Task and Continual Learning
- Title(参考訳): マルチタスクと継続的学習のためのモデル動物園の強化
- Authors: Rahul Ramesh, Pratik Chaudhari
- Abstract要約: モデル動物園」はモデルのアンサンブルを構築するアルゴリズムであり、それぞれが非常に小さく、小さなタスクセットで訓練されている。
モデルZooは,マルチタスクおよび連続学習における最先端手法と比較して,予測精度が大きく向上する。
- 参考スコア(独自算出の注目度): 15.110807414130923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging data from multiple tasks, either all at once, or incrementally, to
learn one model is an idea that lies at the heart of multi-task and continual
learning methods. Ideally, such a model predicts each task more accurately than
if the task were trained in isolation. We show using tools in statistical
learning theory (i) how tasks can compete for capacity, i.e., including a
particular task can deteriorate the accuracy on a given task, and (ii) that the
ideal set of tasks that one should train together in order to perform well on a
given task is different for different tasks. We develop methods to discover
such competition in typical benchmark datasets which suggests that the
prevalent practice of training with all tasks leaves performance on the table.
This motivates our "Model Zoo", which is a boosting-based algorithm that builds
an ensemble of models, each of which is very small, and it is trained on a
smaller set of tasks. Model Zoo achieves large gains in prediction accuracy
compared to state-of-the-art methods across a variety of existing benchmarks in
multi-task and continual learning, as well as more challenging ones of our
creation. We also show that even a model trained independently on all tasks
outperforms all existing multi-task and continual learning methods.
- Abstract(参考訳): 一度に、あるいは漸進的に、複数のタスクからデータを活用して1つのモデルを学習することは、マルチタスクと継続的学習の方法の中心にあるアイデアです。
理想的には、そのようなモデルはタスクが単独でトレーニングされた場合よりも、各タスクを正確に予測する。
統計的学習理論 (i) におけるツールの利用について, 特定のタスクを含むタスクが与えられたタスクの精度を低下させることができること, (ii) 与えられたタスクでうまく機能するために一緒に訓練すべきタスクの理想的なセットが異なること, について述べる。
従来のベンチマークデータセットでこのような競合を発見する手法を開発し,すべてのタスクでのトレーニングがパフォーマンスをテーブルに残していることを示唆する。
これは、モデルのアンサンブルを構築するブースティングベースのアルゴリズムであり、それぞれは非常に小さく、より小さなタスクでトレーニングされます。
Model Zooは、マルチタスクおよび連続学習における様々な既存のベンチマークにおける最先端の手法と比較して、予測精度を大幅に向上させ、また、我々の創造のより困難なものも達成します。
また、全てのタスクに対して独立に訓練されたモデルでさえ、既存のマルチタスクや連続的な学習方法よりも優れていることを示す。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Exploring intra-task relations to improve meta-learning algorithms [1.223779595809275]
我々は,タスクの効果的なミニバッチによるトレーニング安定性向上のために,タスク関係の外部知識を活用することを目的としている。
ミニバッチでタスクの多様なセットを選択すると、完全な勾配がより良く見積もられるため、トレーニングにおけるノイズの低減につながる、という仮説を立てる。
論文 参考訳(メタデータ) (2023-12-27T15:33:52Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Identification of Negative Transfers in Multitask Learning Using
Surrogate Models [29.882265735630046]
マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
マルチタスク学習における重要な問題は、ターゲットタスクに利益をもたらすソースタスクのサブセットを特定することである。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T23:16:11Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Explaining the Effectiveness of Multi-Task Learning for Efficient
Knowledge Extraction from Spine MRI Reports [2.5953185061765884]
一つのマルチタスクモデルがタスク固有のモデルの性能にマッチすることを示す。
内科医による頚椎, 腰椎への注視所見について検討した。
論文 参考訳(メタデータ) (2022-05-06T01:51:19Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。