論文の概要: Parity-based Cumulative Fairness-aware Boosting
- arxiv url: http://arxiv.org/abs/2201.01148v1
- Date: Tue, 4 Jan 2022 14:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:45:25.637455
- Title: Parity-based Cumulative Fairness-aware Boosting
- Title(参考訳): パリティベース累積フェアネスアウェアブースティング
- Authors: Vasileios Iosifidis, Arjun Roy, Eirini Ntoutsi
- Abstract要約: データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
- 参考スコア(独自算出の注目度): 7.824964622317634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven AI systems can lead to discrimination on the basis of protected
attributes like gender or race. One reason for this behavior is the encoded
societal biases in the training data (e.g., females are underrepresented),
which is aggravated in the presence of unbalanced class distributions (e.g.,
"granted" is the minority class). State-of-the-art fairness-aware machine
learning approaches focus on preserving the \emph{overall} classification
accuracy while improving fairness. In the presence of class-imbalance, such
methods may further aggravate the problem of discrimination by denying an
already underrepresented group (e.g., \textit{females}) the fundamental rights
of equal social privileges (e.g., equal credit opportunity).
To this end, we propose AdaFair, a fairness-aware boosting ensemble that
changes the data distribution at each round, taking into account not only the
class errors but also the fairness-related performance of the model defined
cumulatively based on the partial ensemble. Except for the in-training boosting
of the group discriminated over each round, AdaFair directly tackles imbalance
during the post-training phase by optimizing the number of ensemble learners
for balanced error performance (BER). AdaFair can facilitate different
parity-based fairness notions and mitigate effectively discriminatory outcomes.
Our experiments show that our approach can achieve parity in terms of
statistical parity, equal opportunity, and disparate mistreatment while
maintaining good predictive performance for all classes.
- Abstract(参考訳): データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
この行動の1つの理由は、訓練データ(例えば、女性が不足している)の符号化された社会的バイアスであり、これは不均衡なクラス分布(例えば、グラインドは少数派である)の存在によって増大する。
state-of-the-art fairness-aware machine learning のアプローチは、公平性を改善しながら \emph{overall} の分類精度を維持することに焦点を当てている。
クラス不均衡が存在する場合、そのような方法は、既に過小評価されているグループ(例えば、 \textit{females})が平等な社会的特権(例えば、等信用機会)の基本的権利を否定することによって、差別の問題をさらに悪化させることができる。
そこで本研究では,各ラウンドにおけるデータ分布を変化させるフェアネスを意識したブースティングアンサンブルであるAdaFairを提案し,クラスエラーだけでなく,部分アンサンブルに基づいて累積的に定義されたモデルのフェアネス関連性能も考慮する。
各ラウンドにわたって識別されたグループのトレーニング内ブースティングを除き、adafairはバランスドエラーパフォーマンス(ber)のためにアンサンブル学習者の数を最適化することにより、トレーニング後のフェーズで直接不均衡に取り組む。
AdaFairはパリティに基づくフェアネスの概念を多用し、効果的に差別的な結果を緩和することができる。
提案手法は,全てのクラスにおいて良好な予測性能を維持しつつ,統計的に同等な機会,不公平な扱いを両立できることを示す。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FIFA: Making Fairness More Generalizable in Classifiers Trained on
Imbalanced Data [34.70704786008873]
IFA(Im Balance-Fairness-Aware)を理論的に導いたフレキシブルなアプローチを提案する。
FIFAは分類とフェアネスの一般化を奨励し、ロジットに基づく損失を伴う多くの既存のフェアラーニング手法と柔軟に組み合わせることができる。
提案アルゴリズムは,FIFAと一般的なフェア分類アルゴリズムを組み合わせることで,実世界の複数のデータセットに対して,より優れたフェアネスの一般化を実現する。
論文 参考訳(メタデータ) (2022-06-06T04:39:25Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FairBalance: How to Achieve Equalized Odds With Data Pre-processing [15.392349679172707]
本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。
学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
論文 参考訳(メタデータ) (2021-07-17T20:40:45Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Ensuring Fairness Beyond the Training Data [22.284777913437182]
トレーニング分布と摂動のクラスに対して公平な分類器を開発する。
オンライン学習アルゴリズムに基づいて、公正で堅牢な解に収束する反復アルゴリズムを開発する。
実験の結果, 正当性と正当性との間には, 本質的にトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2020-07-12T16:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。