論文の概要: ABCFair: an Adaptable Benchmark approach for Comparing Fairness Methods
- arxiv url: http://arxiv.org/abs/2409.16965v2
- Date: Mon, 21 Oct 2024 20:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 17:10:14.602298
- Title: ABCFair: an Adaptable Benchmark approach for Comparing Fairness Methods
- Title(参考訳): ABCFair:フェアネス法の比較のための適応型ベンチマークアプローチ
- Authors: MaryBeth Defrance, Maarten Buyl, Tijl De Bie,
- Abstract要約: 実世界の問題設定のデシラタに適応できるベンチマーク手法であるABCFairを紹介する。
我々はABCFairを、大規模、伝統的両方のデータセットとデュアルラベル(バイアス付き、バイアスなし)データセットの両方で事前、内、および後処理の手法に適用する。
- 参考スコア(独自算出の注目度): 12.774108753281809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous methods have been implemented that pursue fairness with respect to sensitive features by mitigating biases in machine learning. Yet, the problem settings that each method tackles vary significantly, including the stage of intervention, the composition of sensitive features, the fairness notion, and the distribution of the output. Even in binary classification, these subtle differences make it highly complicated to benchmark fairness methods, as their performance can strongly depend on exactly how the bias mitigation problem was originally framed. Hence, we introduce ABCFair, a benchmark approach which allows adapting to the desiderata of the real-world problem setting, enabling proper comparability between methods for any use case. We apply ABCFair to a range of pre-, in-, and postprocessing methods on both large-scale, traditional datasets and on a dual label (biased and unbiased) dataset to sidestep the fairness-accuracy trade-off.
- Abstract(参考訳): 機械学習におけるバイアスを緩和することにより、繊細な特徴に対する公平性を追求する多くの手法が実装されている。
しかし、各手法が取り組む問題設定は、介入の段階、繊細な特徴の構成、公平性の概念、出力の分布など、大きく異なる。
バイナリ分類においても、これらの微妙な違いは、偏差緩和問題はもともとどのようにフレーム化されていたかに強く依存するため、フェアネス法をベンチマークするのに非常に複雑である。
したがって、ABCFairは実世界の問題設定のデシラタに適応し、あらゆるユースケースにおけるメソッド間の適切なコンパビリティを実現するためのベンチマーク手法である。
我々はABCFairを、大規模、伝統的両方のデータセットと二重ラベル(バイアス付き、非バイアス付き)データセットの事前、内、および後処理の方法に適用し、フェアネスと精度のトレードオフを横取りする。
関連論文リスト
- Different Horses for Different Courses: Comparing Bias Mitigation Algorithms in ML [9.579645248339004]
いくつかのアルゴリズムが達成した公正度に有意なばらつきを示し、学習パイプラインが公正度スコアに与える影響を明らかにした。
ほとんどのバイアス軽減技術は同等のパフォーマンスを実現することができると強調する。
私たちの研究は、アルゴリズムの開発ライフサイクルにおける様々な選択が公正性にどのように影響するか、将来の研究を促進することを願っています。
論文 参考訳(メタデータ) (2024-11-17T15:17:08Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。