論文の概要: Properties of fairness measures in the context of varying class imbalance and protected group ratios
- arxiv url: http://arxiv.org/abs/2411.08425v1
- Date: Wed, 13 Nov 2024 08:18:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:11:57.727626
- Title: Properties of fairness measures in the context of varying class imbalance and protected group ratios
- Title(参考訳): 異なるクラス不均衡と保護群比の文脈における公正度尺度の特性
- Authors: Dariusz Brzezinski, Julia Stachowiak, Jerzy Stefanowski, Izabela Szczech, Robert Susmaga, Sofya Aksenyuk, Uladzimir Ivashka, Oleksandr Yasinskyi,
- Abstract要約: クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
- 参考スコア(独自算出の注目度): 15.942660279740727
- License:
- Abstract: Society is increasingly relying on predictive models in fields like criminal justice, credit risk management, or hiring. To prevent such automated systems from discriminating against people belonging to certain groups, fairness measures have become a crucial component in socially relevant applications of machine learning. However, existing fairness measures have been designed to assess the bias between predictions for protected groups without considering the imbalance in the classes of the target variable. Current research on the potential effect of class imbalance on fairness focuses on practical applications rather than dataset-independent measure properties. In this paper, we study the general properties of fairness measures for changing class and protected group proportions. For this purpose, we analyze the probability mass functions of six of the most popular group fairness measures. We also measure how the probability of achieving perfect fairness changes for varying class imbalance ratios. Moreover, we relate the dataset-independent properties of fairness measures described in this paper to classifier fairness in real-life tasks. Our results show that measures such as Equal Opportunity and Positive Predictive Parity are more sensitive to changes in class imbalance than Accuracy Equality. These findings can help guide researchers and practitioners in choosing the most appropriate fairness measures for their classification problems.
- Abstract(参考訳): 社会は刑事司法、信用リスク管理、雇用といった分野における予測モデルにますます依存している。
このような自動システムが特定のグループに属する人々に対する差別を防止するため、機械学習の社会的な応用において公正度対策が重要な要素となっている。
しかし、既存の公正度対策は、対象変数のクラスにおける不均衡を考慮せずに、保護群に対する予測間のバイアスを評価するように設計されている。
クラス不均衡が公正性に与える影響に関する現在の研究は、データセットに依存しない測度特性よりも実践的な応用に焦点を当てている。
本稿では,クラスと保護群の割合を変えるための公正度尺度の一般的な性質について検討する。
この目的のために、最も人気のある群フェアネス尺度の6つの確率質量関数を解析する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
さらに,本論文で記述した公正度尺度のデータセット非依存特性を,実生活課題における分類器公正度に関連付ける。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
これらの発見は、研究者や実践者が分類問題に最も適した公正度尺度を選択するのに役立ちます。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。