論文の概要: When Mitigating Bias is Unfair: A Comprehensive Study on the Impact of
Bias Mitigation Algorithms
- arxiv url: http://arxiv.org/abs/2302.07185v1
- Date: Tue, 14 Feb 2023 16:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:49:33.390277
- Title: When Mitigating Bias is Unfair: A Comprehensive Study on the Impact of
Bias Mitigation Algorithms
- Title(参考訳): バイアスの緩和が不適切である場合--バイアス除去アルゴリズムの影響に関する総合的研究
- Authors: Natasa Krco, Thibault Laugel, Jean-Michel Loubes, Marcin Detyniecki
- Abstract要約: 偏見緩和アプローチは, 対象者数と対象者数の両方において, 戦略に大きく違いがあることが示される。
これらの結果は、現在のグループフェアネス指標の限界に関する疑問を提起する。
- 参考スコア(独自算出の注目度): 5.606953005101632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most works on the fairness of machine learning systems focus on the blind
optimization of common fairness metrics, such as Demographic Parity and
Equalized Odds. In this paper, we conduct a comparative study of several bias
mitigation approaches to investigate their behaviors at a fine grain, the
prediction level. Our objective is to characterize the differences between fair
models obtained with different approaches. With comparable performances in
fairness and accuracy, are the different bias mitigation approaches impacting a
similar number of individuals? Do they mitigate bias in a similar way? Do they
affect the same individuals when debiasing a model? Our findings show that bias
mitigation approaches differ a lot in their strategies, both in the number of
impacted individuals and the populations targeted. More surprisingly, we show
these results even apply for several runs of the same mitigation approach.
These findings raise questions about the limitations of the current group
fairness metrics, as well as the arbitrariness, hence unfairness, of the whole
debiasing process.
- Abstract(参考訳): 機械学習システムの公正性に関するほとんどの研究は、Demographic ParityやEqualized Oddsといった一般的な公正度メトリクスの盲点最適化に焦点を当てている。
本稿では,いくつかのバイアス緩和法を比較検討し,微粒粒化時の挙動,予測値について検討する。
我々の目的は、異なるアプローチで得られた公正なモデルの違いを特徴づけることである。
公平性と正確性において同等のパフォーマンスを持つ場合、異なるバイアス緩和アプローチは、同じような数の個人に影響を与えるか?
バイアスも同じように軽減されますか?
モデルを嫌悪する場合、同じ個人に影響を与えますか?
以上の結果から, バイアス緩和アプローチは, 影響を受ける個体数と対象個体数の両方において, 戦略によって大きく異なることが明らかとなった。
より驚くべきことに、これらの結果は同じ緩和アプローチのいくつかの実行にも適用できる。
これらの知見は、現在のグループフェアネス指標の限界と、偏見の過程全体の偏見性、すなわち不公平性に関する疑問を提起する。
関連論文リスト
- Explaining Knock-on Effects of Bias Mitigation [13.46387356280467]
機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
モデルライフサイクルの様々な段階で機能するバイアス緩和戦略について検討する。
検討の結果,全ての緩和策が非自明な事例,すなわち緩和努力のみでは望ましくない結果に悪影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2023-12-01T18:40:37Z) - Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation [18.372355677006965]
フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Bias in Machine Learning Software: Why? How? What to do? [15.525314212209564]
本稿では、バイアスの根本原因が、(a)選択したデータに影響を及ぼす事前決定と、(b)それらの事例に割り当てられたラベルである、と仮定する。
我々のFair-SMOTEアルゴリズムはバイアス付きラベルを除去し、感度特性に基づいて、サンプルが正クラスと負のクラスの両方で等しいような内部分布を再バランスさせる。
論文 参考訳(メタデータ) (2021-05-25T20:15:50Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。