論文の概要: FairBalance: How to Achieve Equalized Odds With Data Pre-processing
- arxiv url: http://arxiv.org/abs/2107.08310v4
- Date: Wed, 26 Apr 2023 13:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 18:54:41.910908
- Title: FairBalance: How to Achieve Equalized Odds With Data Pre-processing
- Title(参考訳): FairBalance: データ前処理で平等なオッドを実現する方法
- Authors: Zhe Yu, Joymallya Chakraborty, Tim Menzies
- Abstract要約: 本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。
学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
- 参考スコア(独自算出の注目度): 32.962227796351776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research seeks to benefit the software engineering society by providing
a simple yet effective pre-processing approach to achieve equalized odds
fairness in machine learning software. Fairness issues have attracted
increasing attention since machine learning software is increasingly used for
high-stakes and high-risk decisions. Amongst all the existing fairness notions,
this work specifically targets "equalized odds" given its advantage in always
allowing perfect classifiers. Equalized odds requires that members of every
demographic group do not receive disparate mistreatment. Prior works either
optimize for an equalized odds related metric during the learning process like
a black-box, or manipulate the training data following some intuition. This
work studies the root cause of the violation of equalized odds and how to
tackle it. We found that equalizing the class distribution in each demographic
group with sample weights is a necessary condition for achieving equalized odds
without modifying the normal training process. In addition, an important
partial condition for equalized odds (zero average odds difference) can be
guaranteed when the class distributions are weighted to be not only equal but
also balanced (1:1). Based on these analyses, we proposed FairBalance, a
pre-processing algorithm which balances the class distribution in each
demographic group by assigning calculated weights to the training data. On
eight real-world datasets, our empirical results show that, at low
computational overhead, the proposed pre-processing algorithm FairBalance can
significantly improve equalized odds without much, if any damage to the
utility. FairBalance also outperforms existing state-of-the-art approaches in
terms of equalized odds. To facilitate reuse, reproduction, and validation, we
made our scripts available at https://github.com/hil-se/FairBalance.
- Abstract(参考訳): 本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。
機械学習ソフトウェアは高リスクと高リスクの決定にますます使われているため、公平性の問題に注目が集まっている。
既存のすべてのフェアネス概念の中で、この研究は、常に完全分類子を許容する利点から、特に「等化確率」をターゲットにしている。
平等なオッズは、すべての人口集団のメンバーが異なる不当な扱いを受けないように要求する。
事前の作業は、ブラックボックスのような学習プロセス中に、等しいオッズ関連メトリックを最適化するか、直感によってトレーニングデータを操作します。
この研究は、等化確率の違反の根本原因とそれに取り組む方法を研究する。
その結果,各集団のクラス分布をサンプル重量で等化することが,通常のトレーニングプロセスを変更することなく等化オッズを達成するために必要な条件であることがわかった。
さらに、等化オッズ(平均オッズ差ゼロ)に対する重要な部分条件は、クラス分布が等しくなるだけでなく、バランスをとる(1:1)場合に保証される。
これらの分析に基づいて,各階層群におけるクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案し,計算した重みをトレーニングデータに割り当てた。
実世界の8つのデータセットにおいて,提案したFairBalanceは計算オーバヘッドが低い場合,有効性にダメージを与えることなく,偶発確率を大幅に改善できることを示す。
FairBalanceは、同じオッズの観点から、既存の最先端アプローチよりも優れています。
再利用、再現、検証を容易にするため、スクリプトはhttps://github.com/hil-se/FairBalance.comで公開しました。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FORML: Learning to Reweight Data for Fairness [2.105564340986074]
メタラーニング(FORML)によるフェアネス最適化リヘアリングについて紹介する。
FORMLは、トレーニングサンプル重量とニューラルネットワークのパラメータを共同最適化することで、公正性の制約と精度のバランスを取る。
また,FORMLは,既存の最先端再重み付け手法に比べて,画像分類タスクで約1%,顔予測タスクで約5%向上することを示した。
論文 参考訳(メタデータ) (2022-02-03T17:36:07Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。