論文の概要: Multi-Task Meta Learning: learn how to adapt to unseen tasks
- arxiv url: http://arxiv.org/abs/2210.06989v1
- Date: Thu, 13 Oct 2022 12:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:36:52.157602
- Title: Multi-Task Meta Learning: learn how to adapt to unseen tasks
- Title(参考訳): マルチタスクメタ学習:見えないタスクに適応する方法を学ぶ
- Authors: Richa Upadhyay, Prakash Chandra Chhipa, Ronald Phlypo, Rajkumar Saini,
Marcus Liwicki
- Abstract要約: 本研究の目的は,MTL(Multi-Task Learning)とメタ学習という2つの学習パラダイムを統合することである。
メタ学習を用いた単一タスク学習と比較してMTLを向上させる手法として,マルチタスクメタ学習(MTML)を提案する。
- 参考スコア(独自算出の注目度): 4.287114092271669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to integrate two learning paradigms Multi-Task Learning (MTL)
and meta learning, to bring together the best of both worlds, i.e.,
simultaneous learning of multiple tasks, an element of MTL and promptly
adapting to new tasks with fewer data, a quality of meta learning. We propose
Multi-task Meta Learning (MTML), an approach to enhance MTL compared to single
task learning by employing meta learning. The fundamental idea of this work is
to train a multi-task model, such that when an unseen task is introduced, it
can learn in fewer steps whilst offering a performance at least as good as
conventional single task learning on the new task or inclusion within the MTL.
By conducting various experiments, we demonstrate this paradigm on two datasets
and four tasks: NYU-v2 and the taskonomy dataset for which we perform semantic
segmentation, depth estimation, surface normal estimation, and edge detection.
MTML achieves state-of-the-art results for most of the tasks, and MTL also
performs reasonably well for all tasks compared to single task learning.
- Abstract(参考訳): 本研究の目的は,MTL(Multi-Task Learning)とメタラーニング(メタラーニング)という2つの学習パラダイムを統合することで,複数のタスクの同時学習,MTLの要素である複数のタスクの同時学習,少ないデータによる新たなタスクへの迅速な適応,メタラーニングの質といった両世界の長所をまとめることである。
メタ学習を用いた単一タスク学習と比較してMTLを向上させる手法として,マルチタスクメタ学習(MTML)を提案する。
この作業の基本的な考え方はマルチタスクモデルをトレーニングすることであり、未確認のタスクが導入されると、より少ないステップで学習できると同時に、新しいタスクやMLLへのインクルージョンに関する従来の単一タスク学習と同等のパフォーマンスを提供する。
様々な実験を行い、2つのデータセットと4つのタスク、nyu-v2とタスクノミーデータセットでこのパラダイムを実証し、意味セグメンテーション、深さ推定、表面正規推定、エッジ検出を行う。
MTMLは、ほとんどのタスクに対して最先端の結果を達成し、MTLは単一のタスク学習と比較して、すべてのタスクに対して合理的に機能する。
関連論文リスト
- Joint-Task Regularization for Partially Labeled Multi-Task Learning [30.823282043129552]
機械学習分野ではマルチタスク学習がますます人気になっているが、その実用性は大規模ラベル付きデータセットの必要性によって妨げられている。
本稿では, クロスタスク関係を利用して, 全タスクを1つのジョイントタスク潜在空間で同時に正規化する直感的手法であるジョイントタスク正規化(JTR)を提案する。
論文 参考訳(メタデータ) (2024-04-02T14:16:59Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Knowledge Assembly: Semi-Supervised Multi-Task Learning from Multiple
Datasets with Disjoint Labels [8.816979799419107]
マルチタスク学習(MTL)は適切な手法であるが、通常はすべてのタスクにラベル付けされたデータセットを必要とする。
MTLフレームワークのタスクのいくつかのみにラベル付けされたデータセットを活用できる手法を提案する。
我々の研究であるKnowledge Assembly(KA)は、ラベルのないデータを半教師付きで活用することで、不連続なデータセットから複数のタスクを学習する。
論文 参考訳(メタデータ) (2023-06-15T04:05:03Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - TaskMix: Data Augmentation for Meta-Learning of Spoken Intent
Understanding [0.0]
本稿では,タスクの多様性が低い場合のオーバーフィッティングという問題を,最先端のデータ拡張手法により悪化させることを示す。
本稿では,既存のタスクを線形に補間することで,新しいタスクを合成する簡単なTaskMixを提案する。
TaskMixはベースラインを上回り、タスクの多様性が低い場合の過度な適合を軽減し、高い場合でも性能が低下しないことを示す。
論文 参考訳(メタデータ) (2022-09-26T00:37:40Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。