論文の概要: Maximal Fairness
- arxiv url: http://arxiv.org/abs/2304.06057v1
- Date: Wed, 12 Apr 2023 12:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 16:48:51.876068
- Title: Maximal Fairness
- Title(参考訳): 最大公平性
- Authors: MaryBeth Defrance and Tijl De Bie
- Abstract要約: 不合理性理論」は、一定の公正度尺度の組み合わせを満たすことは不可能であると述べている。
この研究は、同時に満たされるような一般的なフェアネス測度の最大集合を特定する。
これらの公平度尺度の合計12つの最大セットは、2つの尺度の7つの組み合わせと3つの尺度の5つの組み合わせを含む。
- 参考スコア(独自算出の注目度): 13.542616958246725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in AI has garnered quite some attention in research, and
increasingly also in society. The so-called "Impossibility Theorem" has been
one of the more striking research results with both theoretical and practical
consequences, as it states that satisfying a certain combination of fairness
measures is impossible. To date, this negative result has not yet been
complemented with a positive one: a characterization of which combinations of
fairness notions are possible. This work aims to fill this gap by identifying
maximal sets of commonly used fairness measures that can be simultaneously
satisfied. The fairness measures used are demographic parity, equal
opportunity, false positive parity, predictive parity, predictive equality,
overall accuracy equality and treatment equality. We conclude that in total 12
maximal sets of these fairness measures are possible, among which seven
combinations of two measures, and five combinations of three measures. Our work
raises interest questions regarding the practical relevance of each of these 12
maximal fairness notions in various scenarios.
- Abstract(参考訳): AIの公正さは、研究や社会においてもかなりの注目を集めている。
いわゆる「即応性理論」は、ある公正度尺度の組み合わせを満たすことは不可能であるとして、理論的および実践的な結果の両方において、より顕著な研究成果の1つとなっている。
これまでのところ、この否定的な結果はまだ肯定的な結果で補われていない。
この研究は、このギャップを埋めることを目的としており、同時に満たせる一般的なフェアネス測度の最大集合を特定する。
フェアネス尺度は、人口的平等、平等機会、偽ポジティブ平等、予測的平等、予測的平等、総合的精度平等、治療的平等である。
これらの公平性尺度の最大12組のうち、2つの尺度の7つの組み合わせと3つの尺度の5つの組み合わせが考えられると結論づけた。
我々の研究は、様々なシナリオにおけるこれらの12の最大公平概念の実践的妥当性に関する関心を提起する。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Pushing the limits of fairness impossibility: Who's the fairest of them
all? [6.396013144017572]
3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
論文 参考訳(メタデータ) (2022-08-24T22:04:51Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Gradual (In)Compatibility of Fairness Criteria [0.0]
不合理性の結果は、重要な公正度尺度を合理的な仮定の下で同時に満たすことができないことを示している。
本稿では,これらの公平度対策をある程度同時に達成し,改善できるかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-09T16:37:30Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。