論文の概要: Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation
- arxiv url: http://arxiv.org/abs/2305.18160v1
- Date: Mon, 29 May 2023 15:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:32:17.949661
- Title: Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation
- Title(参考訳): 対向フェアネス --フェアネス評価におけるグループ間の系統的差異に対処する
- Authors: Yifei Wang, Zhengyang Zhou, Liqin Wang, John Laurentiev, Peter Hou, Li
Zhou, Pengyu Hong
- Abstract要約: フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
- 参考スコア(独自算出の注目度): 9.829898647804193
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When using machine learning (ML) to aid decision-making, it is critical to
ensure that an algorithmic decision is fair, i.e., it does not discriminate
against specific individuals/groups, particularly those from underprivileged
populations. Existing group fairness methods require equal group-wise measures,
which however fails to consider systematic between-group differences. The
confounding factors, which are non-sensitive variables but manifest systematic
differences, can significantly affect fairness evaluation. To mitigate this
problem, we believe that a fairness measurement should be based on the
comparison between counterparts (i.e., individuals who are similar to each
other with respect to the task of interest) from different groups, whose group
identities cannot be distinguished algorithmically by exploring confounding
factors. We have developed a propensity-score-based method for identifying
counterparts, which prevents fairness evaluation from comparing "oranges" with
"apples". In addition, we propose a counterpart-based statistical fairness
index, termed Counterpart-Fairness (CFair), to assess fairness of ML models.
Empirical studies on the Medical Information Mart for Intensive Care (MIMIC)-IV
database were conducted to validate the effectiveness of CFair. We publish our
code at \url{https://github.com/zhengyjo/CFair}.
- Abstract(参考訳): 機械学習(ml)を使用して意思決定を支援する場合、アルゴリズムによる決定が公平であることを保証することが重要である。
既存のグループフェアネス法は、同じグループ単位の測度を必要とするが、体系的なグループ間差を考慮できない。
非感受性変数であるが系統的差異を呈する結合因子はフェアネス評価に有意な影響を及ぼす。
この問題を緩和するために、フェアネス測定は、集団の同一性が結合要因を探索することによってアルゴリズム的に区別できない異なるグループ(すなわち、興味のあるタスクに関して互いに類似している個人)の比較に基づいて行うべきであると信じている。
本手法は,「オレンジ」と「アプルズ」を比較することによるフェアネス評価の防止を目的としている。
さらに,MLモデルの妥当性を評価するために,CFair(Counterpart-Fairness)と呼ばれる統計的公正度指数を提案する。
cfairの有効性を検証するために,集中治療のための医療情報マート(mimic-ivデータベース)に関する実証研究を行った。
コードは \url{https://github.com/zhengyjo/cfair} で公開します。
関連論文リスト
- A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。