論文の概要: FIFA: Making Fairness More Generalizable in Classifiers Trained on
Imbalanced Data
- arxiv url: http://arxiv.org/abs/2206.02792v1
- Date: Mon, 6 Jun 2022 04:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 11:11:13.402687
- Title: FIFA: Making Fairness More Generalizable in Classifiers Trained on
Imbalanced Data
- Title(参考訳): FIFA:不均衡データでトレーニングされた分類器で公平性をより一般化可能に
- Authors: Zhun Deng, Jiayao Zhang, Linjun Zhang, Ting Ye, Yates Coley, Weijie J.
Su, James Zou
- Abstract要約: IFA(Im Balance-Fairness-Aware)を理論的に導いたフレキシブルなアプローチを提案する。
FIFAは分類とフェアネスの一般化を奨励し、ロジットに基づく損失を伴う多くの既存のフェアラーニング手法と柔軟に組み合わせることができる。
提案アルゴリズムは,FIFAと一般的なフェア分類アルゴリズムを組み合わせることで,実世界の複数のデータセットに対して,より優れたフェアネスの一般化を実現する。
- 参考スコア(独自算出の注目度): 34.70704786008873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness plays an important role in machine learning and imposing
fairness constraints during learning is a common approach. However, many
datasets are imbalanced in certain label classes (e.g. "healthy") and sensitive
subgroups (e.g. "older patients"). Empirically, this imbalance leads to a lack
of generalizability not only of classification, but also of fairness
properties, especially in over-parameterized models. For example,
fairness-aware training may ensure equalized odds (EO) on the training data,
but EO is far from being satisfied on new users. In this paper, we propose a
theoretically-principled, yet Flexible approach that is
Imbalance-Fairness-Aware (FIFA). Specifically, FIFA encourages both
classification and fairness generalization and can be flexibly combined with
many existing fair learning methods with logits-based losses. While our main
focus is on EO, FIFA can be directly applied to achieve equalized opportunity
(EqOpt); and under certain conditions, it can also be applied to other fairness
notions. We demonstrate the power of FIFA by combining it with a popular fair
classification algorithm, and the resulting algorithm achieves significantly
better fairness generalization on several real-world datasets.
- Abstract(参考訳): アルゴリズム的公正は機械学習において重要な役割を担い、学習中に公正性制約を課すことは一般的なアプローチである。
しかし、多くのデータセットは特定のラベルクラス(例えば「健康」)と敏感なサブグループ(例えば「高齢者」)で不均衡である。
経験上、この不均衡は分類だけでなくフェアネス特性、特に過剰パラメータモデルにも一般化可能性の欠如をもたらす。
例えば、公正を意識したトレーニングは、トレーニングデータに対して等化確率(EO)を保証しますが、EOは新規ユーザに満足するには程遠いものです。
本稿では,fifa (imbalance-fairness-aware) という理論的手法を提案する。
具体的には、FIFAは分類と公平性の一般化を奨励し、ロジットに基づく多くの既存の公正学習手法と柔軟に組み合わせることができる。
主な焦点はEOだが、FIFAは平等化の機会(EqOpt)を達成するために直接適用することができる。
提案アルゴリズムは,FIFAと一般的なフェア分類アルゴリズムを組み合わせることで,実世界の複数のデータセットに対して,より優れたフェアネスの一般化を実現する。
関連論文リスト
- Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Improving Fairness via Federated Learning [14.231231094281362]
フェアネスを向上させるために,フェデレーション学習の価値を解析する理論的枠組みを提案する。
次に,FedAvgに基づくフェアラーニングアルゴリズムの性能トレードオフが,集中型データに基づいて訓練されたフェアクラシファイアよりも厳密に悪いことを示す。
これを解決するために,修正されたFedAvgプロトコルを用いて分散データに対するプライベートフェアラーニングアルゴリズムであるFedFBを提案する。
論文 参考訳(メタデータ) (2021-10-29T05:25:44Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - FairBalance: How to Achieve Equalized Odds With Data Pre-processing [15.392349679172707]
本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。
学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
論文 参考訳(メタデータ) (2021-07-17T20:40:45Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。