論文の概要: Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation
- arxiv url: http://arxiv.org/abs/2305.18160v3
- Date: Wed, 4 Sep 2024 20:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-07 05:11:54.874132
- Title: Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation
- Title(参考訳): 対部フェアネス-フェアネス評価におけるグループ間差の系統的相違に対処する
- Authors: Yifei Wang, Zhengyang Zhou, Liqin Wang, John Laurentiev, Peter Hou, Li Zhou, Pengyu Hong,
- Abstract要約: アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別しないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
非保護変数であるが、系統的な差異が示される要因は、公平性評価に大きな影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 17.495053606192375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When using machine learning (ML) to aid decision-making, it is critical to ensure that an algorithmic decision is fair and does not discriminate against specific individuals/groups, particularly those from underprivileged populations. Existing group fairness methods aim to ensure equal outcomes (such as loan approval rates) across groups delineated by protected variables like race or gender. However, these methods overlook the intricate, inherent differences among these groups that could influence outcomes. The confounding factors, which are non-protected variables but manifest systematic differences, can significantly affect fairness evaluation. Therefore, we recommend a more refined and comprehensive approach that accounts for both the systematic differences within groups and the multifaceted, intertwined confounding effects. We proposed a fairness metric based on counterparts (i.e., individuals who are similar with respect to the task of interest) from different groups, whose group identities cannot be distinguished algorithmically by exploring confounding factors. We developed a propensity-score-based method for identifying counterparts, avoiding the issue of comparing "oranges" with "apples". In addition, we introduced a counterpart-based statistical fairness index, called Counterpart-Fairness (CFair), to assess the fairness of ML models. Various empirical studies were conducted to validate the effectiveness of CFair.
- Abstract(参考訳): 機械学習(ML)を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループ、特に未成年者に対する差別がないことを保証することが重要である。
既存のグループフェアネス法は、人種や性別のような保護された変数によって規定されたグループ間で平等な結果(ローン承認率など)を確保することを目的としている。
しかし、これらの手法は、結果に影響を及ぼす可能性のあるこれらのグループの間に、複雑で固有の違いを見落としている。
非保護変数であるが、系統的な差異が示される要因は、公平性評価に大きな影響を及ぼす可能性がある。
したがって、グループ間の系統的差異と、多面的、相互に結合した共役効果の両方を考慮に入れた、より洗練された包括的アプローチを推奨する。
我々は,集団の同一性をアルゴリズム的に区別できない要因を探索することで,異なるグループからの相手(すなわち,興味のあるタスクに関して類似した個人)に基づく公平度尺度を提案した。
そこで我々は,「オレンジ」と「アプルズ」を比較する問題を回避し,確率スコアに基づく相手の識別手法を開発した。
さらに,MLモデルの公正度を評価するために,CFair(Counterpart-Fairness)と呼ばれる対向型統計公正度指数を導入した。
CFairの有効性を検証するために様々な実験を行った。
関連論文リスト
- A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。