論文の概要: "It's a Match!" -- A Benchmark of Task Affinity Scores for Joint
Learning
- arxiv url: http://arxiv.org/abs/2301.02873v1
- Date: Sat, 7 Jan 2023 15:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:26:24.259854
- Title: "It's a Match!" -- A Benchmark of Task Affinity Scores for Joint
Learning
- Title(参考訳): 「マッチだ!」 --共同学習のためのタスク親和性スコアのベンチマーク
- Authors: Raphael Azorin, Massimo Gallo, Alessandro Finamore, Dario Rossi,
Pietro Michiardi
- Abstract要約: MTL(Multi-Task Learning)は、その成功の条件を特徴づけることが、ディープラーニングにおいて依然としてオープンな問題である、と約束する。
共同学習におけるタスク親和性の推定は重要な取り組みである。
最近の研究は、訓練条件自体がMTLの結果に重大な影響を与えることを示唆している。
しかし,本研究では,タスク親和性評価手法の有効性を評価するためのベンチマークが欠落している。
- 参考スコア(独自算出の注目度): 74.14961250042629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the promises of Multi-Task Learning (MTL) are attractive,
characterizing the conditions of its success is still an open problem in Deep
Learning. Some tasks may benefit from being learned together while others may
be detrimental to one another. From a task perspective, grouping cooperative
tasks while separating competing tasks is paramount to reap the benefits of
MTL, i.e., reducing training and inference costs. Therefore, estimating task
affinity for joint learning is a key endeavor. Recent work suggests that the
training conditions themselves have a significant impact on the outcomes of
MTL. Yet, the literature is lacking of a benchmark to assess the effectiveness
of tasks affinity estimation techniques and their relation with actual MTL
performance. In this paper, we take a first step in recovering this gap by (i)
defining a set of affinity scores by both revisiting contributions from
previous literature as well presenting new ones and (ii) benchmarking them on
the Taskonomy dataset. Our empirical campaign reveals how, even in a
small-scale scenario, task affinity scoring does not correlate well with actual
MTL performance. Yet, some metrics can be more indicative than others.
- Abstract(参考訳): MTL(Multi-Task Learning)の約束は魅力的だが、その成功の条件を特徴づけることは、ディープラーニングにおけるオープンな問題である。
いくつかのタスクは一緒に学習することで利益を享受し、他のタスクは互いに有害である。
タスクの観点からは、競合するタスクを分離しながら協調タスクをグループ化することは、mtlの利点、すなわちトレーニングと推論コストの削減を享受する上で最重要である。
したがって、共同学習におけるタスク親和性の推定は重要な取り組みである。
最近の研究は、訓練条件自体がMTLの結果に重大な影響を与えることを示唆している。
しかし,本研究では,タスク親和性評価手法の有効性と実際のMTL性能との関係を評価するためのベンチマークが欠落している。
本稿では,このギャップを回復する第一歩を踏み出す。
一 前の文献からの貢献を再考し、新文献を提示し、親和性スコアのセットを定義すること。
(ii) Taskonomyデータセットでそれらをベンチマークする。
我々の経験的キャンペーンは、たとえ小規模なシナリオであっても、タスク親和性スコアが実際のMTL性能とどのように相関しないかを明らかにする。
しかし、いくつかの指標は、他の指標よりも暗示的である。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - When Multi-Task Learning Meets Partial Supervision: A Computer Vision Review [7.776434991976473]
マルチタスク学習(MTL)は,相互関係を利用して複数のタスクを同時に学習することを目的としている。
このレビューは、これらの課題に対処するために、異なる部分的な監視設定の下でMTLをどのように活用するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-25T20:08:41Z) - Equitable Multi-task Learning [18.65048321820911]
マルチタスク学習(MTL)は、CV、NLP、IRといった様々な研究領域で大きな成功を収めている。
本稿では,EMTLという新しいマルチタスク最適化手法を提案する。
本手法は,2つの研究領域の公開ベンチマークデータセットにおいて,最先端の手法よりも安定して性能を向上する。
論文 参考訳(メタデータ) (2023-06-15T03:37:23Z) - Multi-Task Learning as a Bargaining Game [63.49888996291245]
マルチタスク学習(MTL)では、複数のタスクを同時に予測するためにジョイントモデルを訓練する。
これらの異なるタスクの勾配が矛盾する可能性があるため、MTLのジョイントモデルを訓練すると、対応するシングルタスクモデルよりも低いパフォーマンスが得られる。
本稿では,パラメータ更新のジョイント方向で合意に達するためのタスクを交渉する交渉ゲームとして,勾配の組み合わせステップを考察する。
論文 参考訳(メタデータ) (2022-02-02T13:21:53Z) - Cross-Task Consistency Learning Framework for Multi-Task Learning [9.991706230252708]
2タスクMTL問題に対する新しい学習フレームワークを提案する。
サイクル一貫性損失とコントラスト学習に着想を得た2つの新たな損失項を定義する。
理論的には、どちらの損失もモデルをより効率的に学習する助けとなり、直進予測と整合する点において、クロスタスクの整合性損失がより良いことを証明している。
論文 参考訳(メタデータ) (2021-11-28T11:55:19Z) - Task Uncertainty Loss Reduce Negative Transfer in Asymmetric Multi-task
Feature Learning [0.0]
マルチタスク学習(MTL)は、シングルタスク学習(STL)と比較して全体的なタスクパフォーマンスを向上させることができるが、負の転送(NT)を隠すことができる。
非対称マルチタスク特徴学習(AMTFL)は、損失値の高いタスクが他のタスクを学習するための特徴表現に与える影響を小さくすることで、この問題に対処しようとするアプローチである。
2つのデータセット (画像認識と薬理ゲノミクス) におけるntの例を示し, 課題間の相対的信頼度を捉え, タスク損失の重み付けを行うことにより, この課題に挑戦する。
論文 参考訳(メタデータ) (2020-12-17T13:30:45Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。