論文の概要: Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning
- arxiv url: http://arxiv.org/abs/2207.06084v1
- Date: Wed, 13 Jul 2022 09:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 23:08:36.601319
- Title: Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning
- Title(参考訳): 機械学習におけるバイアスの全体観:ブリッジングアルゴリズムフェアネスと不均衡学習
- Authors: Damien Dablain, Bartosz Krawczyk, Nitesh Chawla
- Abstract要約: 保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
- 参考スコア(独自算出の注目度): 8.602734307457387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is playing an increasingly important role in rendering
decisions that affect a broad range of groups in society. ML models inform
decisions in criminal justice, the extension of credit in banking, and the
hiring practices of corporations. This posits the requirement of model
fairness, which holds that automated decisions should be equitable with respect
to protected features (e.g., gender, race, or age) that are often
under-represented in the data. We postulate that this problem of
under-representation has a corollary to the problem of imbalanced data
learning. This class imbalance is often reflected in both classes and protected
features. For example, one class (those receiving credit) may be
over-represented with respect to another class (those not receiving credit) and
a particular group (females) may be under-represented with respect to another
group (males). A key element in achieving algorithmic fairness with respect to
protected groups is the simultaneous reduction of class and protected group
imbalance in the underlying training data, which facilitates increases in both
model accuracy and fairness. We discuss the importance of bridging imbalanced
learning and group fairness by showing how key concepts in these fields overlap
and complement each other; and propose a novel oversampling algorithm, Fair
Oversampling, that addresses both skewed class distributions and protected
features. Our method: (i) can be used as an efficient pre-processing algorithm
for standard ML algorithms to jointly address imbalance and group equity; and
(ii) can be combined with fairness-aware learning algorithms to improve their
robustness to varying levels of class imbalance. Additionally, we take a step
toward bridging the gap between fairness and imbalanced learning with a new
metric, Fair Utility, that combines balanced accuracy with fairness.
- Abstract(参考訳): 機械学習(ML)は、社会の幅広いグループに影響を与える決定を下す上で、ますます重要な役割を担っている。
MLモデルは刑事司法における決定、銀行における信用の延長、企業の雇用慣行を通知する。
これはモデル公平性(model fairness)の要件を仮定するものであり、データにしばしば過度に表現される保護された特徴(性別、人種、年齢など)に関して、自動決定は公平であるべきだとする。
我々は、この表現不足の問題は、不均衡なデータ学習の問題に関連していると仮定する。
このクラス不均衡は、しばしばクラスと保護された特徴の両方に反映される。
例えば、あるクラス(クレジットを受け取らないクラス)は別のクラス(クレジットを受け取らないクラス)に対して過剰に表現され、ある特定のグループ(女性)は別のグループ(男性)に関して過度に表現される。
保護されたグループに対するアルゴリズム的公平性を達成する上で重要な要素は、基礎となるトレーニングデータにおけるクラスと保護されたグループの不均衡の同時低減である。
我々は,これらの分野における重要な概念がいかに重なり合うかを示し,不均衡な学習と集団公平性を橋渡しすることの重要性について論じ,歪んだクラス分布と保護された特徴の両方を扱う新しいオーバーサンプリングアルゴリズムであるfair oversamplingを提案する。
私たちの方法:
i)不均衡とグループエクイティに共同で対処する標準MLアルゴリズムの効率的な前処理アルゴリズムとして使用できる。
(二) 等級不均衡の度合いに頑健性を改善するために, 公平性を考慮した学習アルゴリズムと組み合わせることができる。
さらに,公平性と不均衡な学習とのギャップを,バランスの取れた正確性と公平性を組み合わせた新しい指標である公正な実用性で橋渡しする一歩を踏み出した。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - FAE: A Fairness-Aware Ensemble Framework [18.993049769711114]
FAE(Fairness-Aware Ensemble)フレームワークは、データ分析プロセスの前処理と後処理の両方でフェアネスに関連する介入を組み合わせる。
事前処理では,保護群とクラス不均衡の問題に対処する。
後処理のステップでは、決定境界を公平な方向にシフトさせることにより、クラスオーバーラップの問題に取り組む。
論文 参考訳(メタデータ) (2020-02-03T13:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。