論文の概要: Gradual (In)Compatibility of Fairness Criteria
- arxiv url: http://arxiv.org/abs/2109.04399v1
- Date: Thu, 9 Sep 2021 16:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:07:33.795972
- Title: Gradual (In)Compatibility of Fairness Criteria
- Title(参考訳): 公正基準の漸進的(In)適合性
- Authors: Corinna Hertweck and Tim R\"az
- Abstract要約: 不合理性の結果は、重要な公正度尺度を合理的な仮定の下で同時に満たすことができないことを示している。
本稿では,これらの公平度対策をある程度同時に達成し,改善できるかどうかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Impossibility results show that important fairness measures (independence,
separation, sufficiency) cannot be satisfied at the same time under reasonable
assumptions. This paper explores whether we can satisfy and/or improve these
fairness measures simultaneously to a certain degree. We introduce
information-theoretic formulations of the fairness measures and define degrees
of fairness based on these formulations. The information-theoretic formulations
suggest unexplored theoretical relations between the three fairness measures.
In the experimental part, we use the information-theoretic expressions as
regularizers to obtain fairness-regularized predictors for three standard
datasets. Our experiments show that a) fairness regularization directly
increases fairness measures, in line with existing work, and b) some fairness
regularizations indirectly increase other fairness measures, as suggested by
our theoretical findings. This establishes that it is possible to increase the
degree to which some fairness measures are satisfied at the same time -- some
fairness measures are gradually compatible.
- Abstract(参考訳): 不合理性の結果は、重要な公正度(独立性、分離性、十分性)を合理的な仮定の下で同時に満たすことができないことを示している。
本稿では,これらの公平性尺度をある程度同時に満たせるか,あるいは改善できるかを検討する。
公正度尺度の情報理論的定式化を導入し,これらの定式化に基づいて公平度を定義する。
情報理論的な定式化は、3つのフェアネス測度の間の未検討の理論関係を示唆する。
実験では、情報理論式を正規化器として、3つの標準データセットのフェアネス正規化予測器を得る。
実験により,a)公平性正規化は,既存の作業と合致して,直接的にフェアネス測度を増加させ,b)公平性正規化は間接的に他のフェアネス測度を増加させることが示された。
これは、ある公正度尺度が同時に満たされる程度を増大させることが可能であることを証明している。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Standardized Interpretable Fairness Measures for Continuous Risk Scores [4.192037827105842]
本稿では、ワッサーシュタイン距離に基づく合理的な解釈を伴う連続的なスコアに対する公正度尺度の標準化版を提案する。
我々の測度は計算が容易で、グループ格差の強さを定量化し、解釈するのにも適しており、異なるモデル、データセット、タイムポイントのバイアスを比較するのにも適しています。
論文 参考訳(メタデータ) (2023-08-22T12:01:49Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Maximal Fairness [13.542616958246725]
不合理性理論」は、一定の公正度尺度の組み合わせを満たすことは不可能であると述べている。
この研究は、同時に満たされるような一般的なフェアネス測度の最大集合を特定する。
これらの公平度尺度の合計12つの最大セットは、2つの尺度の7つの組み合わせと3つの尺度の5つの組み合わせを含む。
論文 参考訳(メタデータ) (2023-04-12T12:28:44Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。