論文の概要: Multitask Learning Can Improve Worst-Group Outcomes
- arxiv url: http://arxiv.org/abs/2312.03151v2
- Date: Wed, 28 Feb 2024 22:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 18:00:05.003868
- Title: Multitask Learning Can Improve Worst-Group Outcomes
- Title(参考訳): マルチタスク学習は最悪のグループの結果を改善する
- Authors: Atharva Kulkarni, Lucio Dery, Amrith Setlur, Aditi Raghunathan, Ameet
Talwalkar and Graham Neubig
- Abstract要約: マルチタスク学習(MTL)は、そのような広く使われている技法の一つである。
我々は,共同マルチタスク表現空間を正規化することにより,標準MTLを変更することを提案する。
正規化MTLアプローチは,平均群と最低群の両方でJTTを上回っていることがわかった。
- 参考スコア(独自算出の注目度): 76.92646345152788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to create machine learning systems that serve a variety of users
well, it is vital to not only achieve high average performance but also ensure
equitable outcomes across diverse groups. However, most machine learning
methods are designed to improve a model's average performance on a chosen end
task without consideration for their impact on worst group error. Multitask
learning (MTL) is one such widely used technique. In this paper, we seek not
only to understand the impact of MTL on worst-group accuracy but also to
explore its potential as a tool to address the challenge of group-wise
fairness. We primarily consider the standard setting of fine-tuning a
pre-trained model, where, following recent work \citep{gururangan2020don,
dery2023aang}, we multitask the end task with the pre-training objective
constructed from the end task data itself. In settings with few or no group
annotations, we find that multitasking often, but not consistently, achieves
better worst-group accuracy than Just-Train-Twice (JTT;
\citet{pmlr-v139-liu21f}) -- a representative distributionally robust
optimization (DRO) method. Leveraging insights from synthetic data experiments,
we propose to modify standard MTL by regularizing the joint multitask
representation space. We run a large number of fine-tuning experiments across
computer vision and natural language processing datasets and find that our
regularized MTL approach \emph{consistently} outperforms JTT on both average
and worst-group outcomes. Our official code can be found here:
\href{https://github.com/atharvajk98/MTL-group-robustness.git}{\url{https://github.com/atharvajk98/MTL-group-robustness}}.
- Abstract(参考訳): 多様なユーザをよく利用する機械学習システムを構築するためには、高い平均パフォーマンスを達成するだけでなく、多様なグループにまたがる公平な結果を保証することが不可欠である。
しかし、ほとんどの機械学習手法は、最悪のグループエラーの影響を考慮せずに、選択したエンドタスクにおけるモデルの平均性能を改善するように設計されている。
マルチタスク学習(MTL)は、そのような広く使われている技法の一つである。
本稿では,MTLが最悪のグループ精度に与える影響を理解するだけでなく,グループワイドフェアネスの課題に対処するためのツールとしての可能性を探る。
我々は主に事前学習モデルの微調整の標準的な設定を考慮し、最近の研究である \citep{gururangan2020don, dery2023aang} に続いて、最終タスクデータ自身から構築された事前学習目標で最終タスクをマルチタスクする。
グループアノテーションがほとんどあるいは全くない設定では、マルチタスキングがJust-Train-Twice (JTT; \citet{pmlr-v139-liu21f}) よりも優れた最悪のグループ精度を実現することがよくあります。
合成データ実験から得られた知見を活用し,共同マルチタスク表現空間の正規化による標準MTLの変更を提案する。
コンピュータビジョンと自然言語処理データセットをまたいで多数の微調整実験を行い、我々の正規化mtlアプローチは平均群と最悪の群の結果の両方においてjttを上回っています。
公式コードは以下のとおり。 \href{https://github.com/atharvajk98/mtl-group-robustness.git}{\url{https://github.com/atharvajk98/mtl-group-robustness}}。
関連論文リスト
- MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Multi-task learning via robust regularized clustering with non-convex group penalties [0.0]
マルチタスク学習(MTL)は、関連するタスク間で共通情報を共有することにより、推定性能を向上させることを目的としている。
この仮定に基づく既存のMTLメソッドは、しばしば外れたタスクを無視する。
MTLRRC(MultiTask Regularized Clustering)と呼ばれる新しいMTL手法を提案する。
論文 参考訳(メタデータ) (2024-04-04T07:09:43Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Task Grouping for Automated Multi-Task Machine Learning via Task
Affinity Prediction [7.975047833725489]
マルチタスク学習(MTL)モデルはシングルタスク学習(STL)モデルよりもはるかに精度が高い。
本稿では,タスクグループ化のための新しい自動化手法を提案する。
我々は、MTLを用いてタスク群を同時に学習すべきか、STLを用いて独立して学習すべきかを予測するのに役立つ固有のタスク特徴とSTLの特徴を識別する。
論文 参考訳(メタデータ) (2023-10-24T23:29:46Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - When to Use Multi-Task Learning vs Intermediate Fine-Tuning for
Pre-Trained Encoder Transfer Learning [15.39115079099451]
近年,自然言語処理における伝達学習(TL)への関心が高まっている。
微調整中に複数の教師付きデータセットを使用するための3つの主要な戦略が登場した。
GLUEデータセットの包括的解析において,3つのTL手法を比較した。
論文 参考訳(メタデータ) (2022-05-17T06:48:45Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。