論文の概要: Pushing the limits of fairness impossibility: Who's the fairest of them
all?
- arxiv url: http://arxiv.org/abs/2208.12606v1
- Date: Wed, 24 Aug 2022 22:04:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:43:07.122129
- Title: Pushing the limits of fairness impossibility: Who's the fairest of them
all?
- Title(参考訳): 公平さの限界を押し上げる:彼らの中で一番公平なのは誰か?
- Authors: Brian Hsu, Rahul Mazumder, Preetam Nandy, Kinjal Basu
- Abstract要約: 3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
- 参考スコア(独自算出の注目度): 6.396013144017572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The impossibility theorem of fairness is a foundational result in the
algorithmic fairness literature. It states that outside of special cases, one
cannot exactly and simultaneously satisfy all three common and intuitive
definitions of fairness - demographic parity, equalized odds, and predictive
rate parity. This result has driven most works to focus on solutions for one or
two of the metrics. Rather than follow suit, in this paper we present a
framework that pushes the limits of the impossibility theorem in order to
satisfy all three metrics to the best extent possible. We develop an
integer-programming based approach that can yield a certifiably optimal
post-processing method for simultaneously satisfying multiple fairness criteria
under small violations. We show experiments demonstrating that our
post-processor can improve fairness across the different definitions
simultaneously with minimal model performance reduction. We also discuss
applications of our framework for model selection and fairness explainability,
thereby attempting to answer the question: who's the fairest of them all?
- Abstract(参考訳): 不合理性定理はアルゴリズム的公正文学の基礎的な結果である。
特別な場合以外では、不公平の3つの共通かつ直感的な定義、すなわち人口差パリティ、等化オッズ、予測率パリティを正確かつ同時に満たすことはできない。
この結果、ほとんどの作業がメトリクスの1つか2つのソリューションに集中するようになった。
本稿では,3つの指標を最大限に満たすために,不可能定理の限界を押し上げる枠組みを提案する。
本稿では,複数のフェアネス基準を同時に満たすための認証可能な最適後処理法を導出する整数プログラミングに基づく手法を提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
我々はまた、モデル選択と公平性説明可能性のためのフレームワークの応用についても議論し、その結果、質問に答えようとしている。
関連論文リスト
- Near-Optimal Solutions of Constrained Learning Problems [85.48853063302764]
機械学習システムでは、振る舞いを縮小する必要性がますます顕在化している。
これは、双対ロバスト性変数を満たすモデルの開発に向けた最近の進歩によって証明されている。
この結果から, 豊富なパラメトリゼーションは非次元的, 有限な学習問題を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2024-03-18T14:55:45Z) - Arbitrariness Lies Beyond the Fairness-Accuracy Frontier [3.383670923637875]
我々は,最先端のフェアネス介入が,グループフェアネスと精度の指標よりも高い予測倍率を隠蔽できることを示した。
より一貫した予測を確実に保証するフェアネス介入に適用可能なアンサンブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:15:46Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Pluralistic Image Completion with Probabilistic Mixture-of-Experts [58.81469985455467]
本稿では,画像補完における複雑な相互作用を表す統一確率グラフモデルを提案する。
画像補完の手順全体を数学的にいくつかのサブプロデューサに分割し、制約の効率的な適用を支援する。
GMMの固有のパラメータはタスク関連であり、トレーニング中に適応的に最適化され、プリミティブの数は、結果の多様性を便利に制御できる。
論文 参考訳(メタデータ) (2022-05-18T17:24:21Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。