論文の概要: Bayesian Uncertainty for Gradient Aggregation in Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2402.04005v1
- Date: Tue, 6 Feb 2024 14:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:56:32.162500
- Title: Bayesian Uncertainty for Gradient Aggregation in Multi-Task Learning
- Title(参考訳): マルチタスク学習における勾配アグリゲーションのベイズ的不確かさ
- Authors: Idan Achituve, Idit Diamant, Arnon Netzer, Gal Chechik, Ethan Fetaya
- Abstract要約: マルチタスク学習(MTL)は、複数のタスクを効率的に解決する単一のモデルを学習することを目的としている。
ベイジアン推論を用いた新しい勾配集約手法を提案する。
さまざまなデータセットで,アプローチのメリットを実証的に実証しています。
- 参考スコア(独自算出の注目度): 42.30751065699872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning becomes more prominent there is a growing demand to
perform several inference tasks in parallel. Running a dedicated model for each
task is computationally expensive and therefore there is a great interest in
multi-task learning (MTL). MTL aims at learning a single model that solves
several tasks efficiently. Optimizing MTL models is often achieved by computing
a single gradient per task and aggregating them for obtaining a combined update
direction. However, these approaches do not consider an important aspect, the
sensitivity in the gradient dimensions. Here, we introduce a novel gradient
aggregation approach using Bayesian inference. We place a probability
distribution over the task-specific parameters, which in turn induce a
distribution over the gradients of the tasks. This additional valuable
information allows us to quantify the uncertainty in each of the gradients
dimensions, which can then be factored in when aggregating them. We empirically
demonstrate the benefits of our approach in a variety of datasets, achieving
state-of-the-art performance.
- Abstract(参考訳): 機械学習がより顕著になるにつれて、複数の推論タスクを並行して実行する必要性が高まっている。
各タスクに専用のモデルを実行するのは計算コストがかかるため、マルチタスク学習(MTL)に大きな関心がある。
mtlは、複数のタスクを効率的に解決する単一のモデルを学ぶことを目指している。
mtlモデルの最適化は、タスクごとの単一の勾配を計算し、それらを集約することで、更新方向を組み合わせることで達成されることが多い。
しかし、これらのアプローチは、勾配次元の感度という重要な側面を考慮しない。
本稿ではベイズ推定を用いた新しい勾配集約手法を提案する。
タスク固有のパラメータに確率分布を配置し,タスクの勾配上の分布を誘導する。
この付加的な貴重な情報は、各勾配次元の不確かさを定量化し、それらを集約するときに分解することができる。
私たちは、さまざまなデータセットで私たちのアプローチの利点を実証し、最先端のパフォーマンスを実現します。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - AdaTask: A Task-aware Adaptive Learning Rate Approach to Multi-task
Learning [19.201899503691266]
このパラメータ上の各タスクの総更新によって、パラメータのタスク支配度を測定する。
本稿では,各タスクの強調勾配と学習率を分離するタスクワイド適応学習率アプローチであるAdaTaskを提案する。
コンピュータビジョンとレコメンダシステムMTLデータセットの実験は、AdaTaskが支配的なタスクのパフォーマンスを大幅に改善することを示した。
論文 参考訳(メタデータ) (2022-11-28T04:24:38Z) - Multi-Task Learning as a Bargaining Game [63.49888996291245]
マルチタスク学習(MTL)では、複数のタスクを同時に予測するためにジョイントモデルを訓練する。
これらの異なるタスクの勾配が矛盾する可能性があるため、MTLのジョイントモデルを訓練すると、対応するシングルタスクモデルよりも低いパフォーマンスが得られる。
本稿では,パラメータ更新のジョイント方向で合意に達するためのタスクを交渉する交渉ゲームとして,勾配の組み合わせステップを考察する。
論文 参考訳(メタデータ) (2022-02-02T13:21:53Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - SLAW: Scaled Loss Approximate Weighting for Efficient Multi-Task
Learning [0.0]
マルチタスク学習(MTL)は、機械学習のサブフィールドであり、重要な応用がある。
最適MTL最適化法は、各タスクの損失関数の勾配を個別に計算する必要がある。
マルチタスク最適化手法であるScaled Loss Approximate Weighting (SLAW)を提案する。
論文 参考訳(メタデータ) (2021-09-16T20:58:40Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。