論文の概要: Understanding and Improving Fairness-Accuracy Trade-offs in Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2106.02705v1
- Date: Fri, 4 Jun 2021 20:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:57:07.329939
- Title: Understanding and Improving Fairness-Accuracy Trade-offs in Multi-Task
Learning
- Title(参考訳): マルチタスク学習における公平なトレードオフの理解と改善
- Authors: Yuyan Wang, Xuezhi Wang, Alex Beutel, Flavien Prost, Jilin Chen, Ed H.
Chi
- Abstract要約: 我々は,マルチタスクシナリオにおいて,MLフェアネスの概念としてのグループフェアネスが果たす役割を懸念している。
マルチタスク学習では、より効率的な帰納的伝達のためにタスク相関を利用するために、複数のタスクが共同で学習される。
マルチタスク学習における公平性向上のためのマルチタスク認識フェアネス(MTA-F)アプローチを提案する。
- 参考スコア(独自算出の注目度): 18.666340309506605
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As multi-task models gain popularity in a wider range of machine learning
applications, it is becoming increasingly important for practitioners to
understand the fairness implications associated with those models. Most
existing fairness literature focuses on learning a single task more fairly,
while how ML fairness interacts with multiple tasks in the joint learning
setting is largely under-explored. In this paper, we are concerned with how
group fairness (e.g., equal opportunity, equalized odds) as an ML fairness
concept plays out in the multi-task scenario. In multi-task learning, several
tasks are learned jointly to exploit task correlations for a more efficient
inductive transfer. This presents a multi-dimensional Pareto frontier on (1)
the trade-off between group fairness and accuracy with respect to each task, as
well as (2) the trade-offs across multiple tasks. We aim to provide a deeper
understanding on how group fairness interacts with accuracy in multi-task
learning, and we show that traditional approaches that mainly focus on
optimizing the Pareto frontier of multi-task accuracy might not perform well on
fairness goals. We propose a new set of metrics to better capture the
multi-dimensional Pareto frontier of fairness-accuracy trade-offs uniquely
presented in a multi-task learning setting. We further propose a
Multi-Task-Aware Fairness (MTA-F) approach to improve fairness in multi-task
learning. Experiments on several real-world datasets demonstrate the
effectiveness of our proposed approach.
- Abstract(参考訳): マルチタスクモデルが幅広い機械学習アプリケーションで普及するにつれて、実践者がそれらのモデルに関連する公平性を理解することがますます重要になっている。
既存のフェアネス文献のほとんどは、1つのタスクをより正確に学習することに焦点を当てている。
本稿では、マルチタスクシナリオにおいて、MLフェアネスの概念としてのグループフェアネス(例えば、平等機会、等化確率)がどのように機能するかを懸念する。
マルチタスク学習では、より効率的な帰納的伝達のためにタスク相関を利用するために、複数のタスクが共同で学習される。
これは(1)グループフェアネスと各タスクに対する精度の間のトレードオフと、(2)複数のタスク間のトレードオフについて、多次元パレートフロンティアを示す。
我々は,マルチタスク学習におけるグループフェアネスと精度の相互作用についてより深く理解することを目的としており,マルチタスク精度のparetoフロンティアを最適化することに注力する従来のアプローチがフェアネス目標に対してうまく機能しないことを示す。
本稿では,多タスク学習環境において一意に提示される公平性・正確性トレードオフの多次元パレートフロンティアをよりよく捉えるための指標セットを提案する。
さらに,マルチタスク学習における公平性を改善するために,MTA-Fアプローチを提案する。
実世界のデータセットを複数実験した結果,提案手法の有効性が示された。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fairness in Multi-Task Learning via Wasserstein Barycenters [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、データのバイアスを減らすことを目的とした機械学習の確立された分野である。
我々は,マルチマルジナル・ワッサースタイン・バリセンタを用いたマルチタスク学習に対して,Strong Demographic Parityの定義を拡張した手法を開発した。
提案手法は回帰および二項分類タスクを含む最適フェアマルチタスク予測器に対する閉形式解を提供する。
論文 参考訳(メタデータ) (2023-06-16T19:53:34Z) - Equitable Multi-task Learning [18.65048321820911]
マルチタスク学習(MTL)は、CV、NLP、IRといった様々な研究領域で大きな成功を収めている。
本稿では,EMTLという新しいマルチタスク最適化手法を提案する。
本手法は,2つの研究領域の公開ベンチマークデータセットにおいて,最先端の手法よりも安定して性能を向上する。
論文 参考訳(メタデータ) (2023-06-15T03:37:23Z) - Learning to Teach Fairness-aware Deep Multi-task Learning [17.30805079904122]
本稿では,各ステップでどの目的(正確性や公平性)を最適化するかを選択することで,マルチタスク設定で公平になる方法を学ぶ柔軟なアプローチを提案する。
3つの実際のデータセットの実験では、L2T-FMTは最先端アプローチよりも公平性(12-19%)と正確性(最大2%)の両方を改善している。
論文 参考訳(メタデータ) (2022-06-16T18:43:16Z) - Channel Exchanging Networks for Multimodal and Multitask Dense Image
Prediction [125.18248926508045]
本稿では,マルチモーダル融合とマルチタスク学習の両方に適用可能な,自己適応的でパラメータフリーなチャネル交換ネットワーク(CEN)を提案する。
CENは異なるモダリティのワーク間でチャネルを動的に交換する。
濃密な画像予測を応用するために、CENの有効性は4つの異なるシナリオで検証される。
論文 参考訳(メタデータ) (2021-12-04T05:47:54Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。