論文の概要: One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification
- arxiv url: http://arxiv.org/abs/2010.13494v1
- Date: Mon, 26 Oct 2020 11:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:30:37.849360
- Title: One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification
- Title(参考訳): ワンvs。
-節間バイアスの1つの軽減:公平性を考慮した二項分類の一般的な方法
- Authors: Kenji Kobayashi, Yuri Nakao
- Abstract要約: 1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
- 参考スコア(独自算出の注目度): 0.48733623015338234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread adoption of machine learning in the real world, the
impact of the discriminatory bias has attracted attention. In recent years,
various methods to mitigate the bias have been proposed. However, most of them
have not considered intersectional bias, which brings unfair situations where
people belonging to specific subgroups of a protected group are treated worse
when multiple sensitive attributes are taken into consideration. To mitigate
this bias, in this paper, we propose a method called One-vs.-One Mitigation by
applying a process of comparison between each pair of subgroups related to
sensitive attributes to the fairness-aware machine learning for binary
classification. We compare our method and the conventional fairness-aware
binary classification methods in comprehensive settings using three approaches
(pre-processing, in-processing, and post-processing), six metrics (the ratio
and difference of demographic parity, equalized odds, and equal opportunity),
and two real-world datasets (Adult and COMPAS). As a result, our method
mitigates the intersectional bias much better than conventional methods in all
the settings. With the result, we open up the potential of fairness-aware
binary classification for solving more realistic problems occurring when there
are multiple sensitive attributes.
- Abstract(参考訳): 現実世界での機械学習の普及により、差別バイアスの影響が注目されている。
近年,バイアスを軽減する様々な方法が提案されている。
しかし,そのほとんどは交叉バイアスを考慮していないため,複数の属性を考慮した場合,保護集団の特定のサブグループに属する人々が悪化する不公平な状況が生じる。
このバイアスを軽減するため,本稿ではone-vsという手法を提案する。
-二分分類のためのフェアネスアウェア機械学習に対して、機密属性に関連する各サブグループ間の比較プロセスを適用することで軽減する。
本手法と従来のフェアネス対応バイナリ分類法を,3つの手法(前処理,内処理,後処理),6つの指標(人口差,等化確率,等機会の比率と差),2つの実世界データセット(adultとcompas)を用いて包括的に比較した。
その結果,すべての設定において従来の手法よりも交叉バイアスを低減できることがわかった。
その結果,複数の感度特性が存在する場合に発生するより現実的な問題を解決するために,公平性に配慮したバイナリ分類の可能性を開放する。
関連論文リスト
- ABCFair: an Adaptable Benchmark approach for Comparing Fairness Methods [12.774108753281809]
実世界の問題設定のデシラタに適応できるベンチマーク手法であるABCFairを紹介する。
我々はABCFairを、大規模、伝統的両方のデータセットとデュアルラベル(バイアス付き、バイアスなし)データセットの両方で事前、内、および後処理の手法に適用する。
論文 参考訳(メタデータ) (2024-09-25T14:26:07Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。