論文の概要: Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation
- arxiv url: http://arxiv.org/abs/2305.18160v4
- Date: Mon, 18 Nov 2024 20:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:34:41.208998
- Title: Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation
- Title(参考訳): 対部フェアネス-フェアネス評価におけるグループ間差の系統的相違に対処する
- Authors: Yifei Wang, Zhengyang Zhou, Liqin Wang, John Laurentiev, Peter Hou, Li Zhou, Pengyu Hong,
- Abstract要約: 機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
- 参考スコア(独自算出の注目度): 17.495053606192375
- License:
- Abstract: When using machine learning to aid decision-making, it is critical to ensure that an algorithmic decision is fair and does not discriminate against specific individuals/groups, particularly those from underprivileged populations. Existing group fairness methods aim to ensure equal outcomes (such as loan approval rates) across groups delineated by protected variables like race or gender. However, in cases where systematic differences between groups play a significant role in outcomes, these methods may overlook the influence of non-protected variables that can systematically vary across groups. These confounding factors can affect fairness evaluations, making it challenging to assess whether disparities are due to discrimination or inherent differences. Therefore, we recommend a more refined and comprehensive fairness index that accounts for both the systematic differences within groups and the multifaceted, intertwined confounding effects. The proposed index evaluates fairness on counterparts (pairs of individuals who are similar with respect to the task of interest but from different groups), whose group identities cannot be distinguished algorithmically by exploring confounding factors. To identify counterparts, we developed a two-step matching method inspired by propensity score and metric learning. In addition, we introduced a counterpart-based statistical fairness index, called Counterpart Fairness (CFair), to assess the fairness of machine learning models. Empirical results on the MIMIC and COMPAS datasets indicate that standard group-based fairness metrics may not adequately inform about the degree of unfairness present in predictions, as revealed through CFair.
- Abstract(参考訳): 機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループ、特に少数民族の集団に対して差別しないことを保証することが重要である。
既存のグループフェアネス法は、人種や性別のような保護された変数によって規定されたグループ間で平等な結果(融資承認率など)を確保することを目的としている。
しかしながら、結果においてグループ間の体系的な差異が重要な役割を果たす場合、これらの手法はグループ間で体系的に異なる非保護変数の影響を見逃す可能性がある。
これらの相違要因は公平性評価に影響を与える可能性があるため、差別や固有の相違による相違の有無を評価することは困難である。
そこで本研究では,グループ間の系統的差異と多面的,絡み合った共生効果の両方を考慮に入れた,より洗練され包括的公正度指数を推奨する。
提案索引は,グループアイデンティティをアルゴリズム的に識別できない要因を探索することにより,対象者(興味のある課題に対して類似した個人ペア)に対する公平性を評価する。
そこで我々は,適合度スコアとメートル法学習にインスパイアされた2段階のマッチング手法を開発した。
さらに,機械学習モデルの公正度を評価するために,CFair(Counterpart Fairness)と呼ばれる対向型統計公正度指数を導入した。
MIMICとCompASデータセットの実証結果は、CFairで明らかになったように、標準グループベースの公正度指標は、予測に存在している不公平度を適切に知らせることができないことを示している。
関連論文リスト
- A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。