論文の概要: Active Multitask Learning with Committees
- arxiv url: http://arxiv.org/abs/2103.13420v1
- Date: Wed, 24 Mar 2021 18:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:54:20.660739
- Title: Active Multitask Learning with Committees
- Title(参考訳): 委員会によるアクティブマルチタスク学習
- Authors: Jingxi Xu, Da Tang, Tony Jebara
- Abstract要約: 従来のトレーニングデータのアノテートコストは、教師付き学習アプローチのボトルネックでした。
タスク間の知識伝達を実現するアクティブマルチタスク学習アルゴリズムを提案する。
提案手法は,テストデータの精度を維持しつつ,トレーニングに必要なクエリ数を削減する。
- 参考スコア(独自算出の注目度): 15.862634213775697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cost of annotating training data has traditionally been a bottleneck for
supervised learning approaches. The problem is further exacerbated when
supervised learning is applied to a number of correlated tasks simultaneously
since the amount of labels required scales with the number of tasks. To
mitigate this concern, we propose an active multitask learning algorithm that
achieves knowledge transfer between tasks. The approach forms a so-called
committee for each task that jointly makes decisions and directly shares data
across similar tasks. Our approach reduces the number of queries needed during
training while maintaining high accuracy on test data. Empirical results on
benchmark datasets show significant improvements on both accuracy and number of
query requests.
- Abstract(参考訳): 従来のトレーニングデータのアノテートコストは、教師付き学習アプローチのボトルネックでした。
ラベルの量はタスク数に応じてスケールする必要があるため、教師付き学習が複数の関連タスクに同時に適用されるとさらに悪化する。
そこで本研究では,タスク間の知識伝達を実現するアクティブマルチタスク学習アルゴリズムを提案する。
このアプローチは、各タスクのいわゆる委員会を形成し、共同で意思決定を行い、同様のタスク間でデータを直接共有する。
提案手法は,テストデータの精度を維持しつつ,トレーニングに必要なクエリ数を削減する。
ベンチマークデータセットの実証結果は、正確性とクエリリクエスト数の両方で大幅に改善されている。
関連論文リスト
- Joint-Task Regularization for Partially Labeled Multi-Task Learning [30.823282043129552]
機械学習分野ではマルチタスク学習がますます人気になっているが、その実用性は大規模ラベル付きデータセットの必要性によって妨げられている。
本稿では, クロスタスク関係を利用して, 全タスクを1つのジョイントタスク潜在空間で同時に正規化する直感的手法であるジョイントタスク正規化(JTR)を提案する。
論文 参考訳(メタデータ) (2024-04-02T14:16:59Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Learning Multiple Dense Prediction Tasks from Partially Annotated Data [41.821234589075445]
マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
論文 参考訳(メタデータ) (2021-11-29T19:03:12Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。