論文の概要: The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice
- arxiv url: http://arxiv.org/abs/2302.06347v1
- Date: Mon, 13 Feb 2023 13:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:30:05.669562
- Title: The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice
- Title(参考訳): フェアネスの可能性--実践における不可能理論の再考
- Authors: Andrew Bell, Lucius Bynum, Nazarii Drushchak, Tetiana Herasymova,
Lucas Rosenblatt, Julia Stoyanovich
- Abstract要約: 非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
- 参考スコア(独自算出の注目度): 5.175941513195566
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The ``impossibility theorem'' -- which is considered foundational in
algorithmic fairness literature -- asserts that there must be trade-offs
between common notions of fairness and performance when fitting statistical
models, except in two special cases: when the prevalence of the outcome being
predicted is equal across groups, or when a perfectly accurate predictor is
used. However, theory does not always translate to practice. In this work, we
challenge the implications of the impossibility theorem in practical settings.
First, we show analytically that, by slightly relaxing the impossibility
theorem (to accommodate a \textit{practitioner's} perspective of fairness), it
becomes possible to identify a large set of models that satisfy seemingly
incompatible fairness constraints. Second, we demonstrate the existence of
these models through extensive experiments on five real-world datasets. We
conclude by offering tools and guidance for practitioners to understand when --
and to what degree -- fairness along multiple criteria can be achieved. For
example, if one allows only a small margin-of-error between metrics, there
exists a large set of models simultaneously satisfying \emph{False Negative
Rate Parity}, \emph{False Positive Rate Parity}, and \emph{Positive Predictive
Value Parity}, even when there is a moderate prevalence difference between
groups. This work has an important implication for the community: achieving
fairness along multiple metrics for multiple groups (and their intersections)
is much more possible than was previously believed.
- Abstract(参考訳): アルゴリズムの公正性文学において基礎的なものとみなされる「即効性定理」は、予測される結果の確率がグループ間で等しくなる場合や完全に正確な予測器が使用される場合を除いて、統計モデルに適合する際のフェアネスの共通概念とパフォーマンスの間にトレードオフがある必要があると主張する。
しかし、理論は常に実践に通じるわけではない。
本研究では, 実用的設定において, 不可能定理の意義に挑戦する。
まず、分析学的に、不合理性定理を少し緩和することで(フェアネスの『textit{practitioner's}』の観点を適合させるために)、不整合性の制約を満たすようなモデルの大規模な集合を特定できることを示した。
第2に、これらのモデルの存在を5つの実世界のデータセットで広範な実験によって実証する。
結論として、複数の基準に沿った公平さがいつ(そしてどの程度まで)達成可能かを理解するためのツールとガイダンスを提供することで締めくくっています。
例えば、メトリクス間の誤差のマージンが小さい場合、集団間で中程度の有意な有意差がある場合でも、同時に \emph{false negative rate parity} と \emph{false positive rate parity} と \emph{ positive predict value parity} を同時に満たすモデル群が存在する。
複数のグループ(およびそれらの交差点)の複数のメトリクスに沿って公平性を達成することは、以前信じられていたよりもずっと可能です。
関連論文リスト
- Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Pushing the limits of fairness impossibility: Who's the fairest of them
all? [6.396013144017572]
3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
論文 参考訳(メタデータ) (2022-08-24T22:04:51Z) - Bounding and Approximating Intersectional Fairness through Marginal
Fairness [7.954748673441148]
機械学習における差別は、しばしば複数の次元に沿って生じる。
すなわち、どの部分群も差別されないことを保証することが望ましい。
論文 参考訳(メタデータ) (2022-06-12T19:53:34Z) - Beyond Impossibility: Balancing Sufficiency, Separation and Accuracy [27.744055920557024]
満足度とテキストセパレーションの緊張
本研究の目的は,テクスチャフィフィフィリエイトとテクスチャセパレーションのバランスをとることである。
既存の代替手段よりも優れたトレードオフが達成できる、有望な結果を示します。
論文 参考訳(メタデータ) (2022-05-24T19:14:21Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes [0.0]
公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
論文 参考訳(メタデータ) (2021-09-01T03:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。