論文の概要: Transferring Fairness using Multi-Task Learning with Limited Demographic Information
- arxiv url: http://arxiv.org/abs/2305.12671v2
- Date: Mon, 15 Apr 2024 22:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 02:40:26.146007
- Title: Transferring Fairness using Multi-Task Learning with Limited Demographic Information
- Title(参考訳): 限定デモグラフィック情報を用いたマルチタスク学習によるフェアネスの伝達
- Authors: Carlos Aguirre, Mark Dredze,
- Abstract要約: マルチタスク設定に単一タスクのフェアネス損失を適用して、対象タスクを逸脱する際の関連タスクから人口統計ラベルを利用する。
本研究では, 単一軸の異なる2つのデータセット間を転送することで, 交差点の公平性を実現することを示す。
- 参考スコア(独自算出の注目度): 15.427628385080418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training supervised machine learning systems with a fairness loss can improve prediction fairness across different demographic groups. However, doing so requires demographic annotations for training data, without which we cannot produce debiased classifiers for most tasks. Drawing inspiration from transfer learning methods, we investigate whether we can utilize demographic data from a related task to improve the fairness of a target task. We adapt a single-task fairness loss to a multi-task setting to exploit demographic labels from a related task in debiasing a target task and demonstrate that demographic fairness objectives transfer fairness within a multi-task framework. Additionally, we show that this approach enables intersectional fairness by transferring between two datasets with different single-axis demographics. We explore different data domains to show how our loss can improve fairness domains and tasks.
- Abstract(参考訳): 公平性を損なう教師付き機械学習システムの訓練は、異なる人口集団間の予測公正性を向上することができる。
しかし、データのトレーニングには人口統計学的なアノテーションが必要であるため、ほとんどのタスクに対して偏りのある分類器を生成できない。
移動学習法からインスピレーションを得て,対象タスクの公平性を改善するために,関連するタスクから人口統計データを利用することができるかどうかを検討する。
我々は、マルチタスク設定にシングルタスクフェアネスの損失を適用し、対象タスクを逸脱する関連タスクから人口統計ラベルを活用し、マルチタスクフレームワーク内で人口統計フェアネスの目的がフェアネスを伝達することを実証する。
さらに, この手法は, 単一軸の異なる2つのデータセット間を転送することで, 交差点の公平性を実現することを示す。
私たちは、損失が公正なドメインやタスクをどのように改善できるかを示すために、さまざまなデータドメインを調査します。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Understanding and Improving Fairness-Accuracy Trade-offs in Multi-Task
Learning [18.666340309506605]
我々は,マルチタスクシナリオにおいて,MLフェアネスの概念としてのグループフェアネスが果たす役割を懸念している。
マルチタスク学習では、より効率的な帰納的伝達のためにタスク相関を利用するために、複数のタスクが共同で学習される。
マルチタスク学習における公平性向上のためのマルチタスク認識フェアネス(MTA-F)アプローチを提案する。
論文 参考訳(メタデータ) (2021-06-04T20:28:54Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。