論文の概要: Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics
- arxiv url: http://arxiv.org/abs/2206.02897v3
- Date: Tue, 2 May 2023 07:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 18:13:45.187620
- Title: Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics
- Title(参考訳): fair mlの基礎的前提としての分散的正義--集団公平度メトリクスの統一、拡張、解釈
- Authors: Joachim Baumann, Corinna Hertweck, Michele Loi, Christoph Heitz
- Abstract要約: グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
本稿では,グループフェアネス指標の包括的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group fairness metrics are an established way of assessing the fairness of
prediction-based decision-making systems. However, these metrics are still
insufficiently linked to philosophical theories, and their moral meaning is
often unclear. In this paper, we propose a comprehensive framework for group
fairness metrics, which links them to more theories of distributive justice.
The different group fairness metrics differ in their choices about how to
measure the benefit or harm of a decision for the affected individuals, and
what moral claims to benefits are assumed. Our unifying framework reveals the
normative choices associated with standard group fairness metrics and allows an
interpretation of their moral substance. In addition, this broader view
provides a structure for the expansion of standard fairness metrics that we
find in the literature. This expansion allows addressing several criticisms of
standard group fairness metrics, specifically: (1) they are parity-based, i.e.,
they demand some form of equality between groups, which may sometimes be
detrimental to marginalized groups; (2) they only compare decisions across
groups but not the resulting consequences for these groups; and (3) the full
breadth of the distributive justice literature is not sufficiently represented.
- Abstract(参考訳): グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
しかし、これらの指標はいまだに哲学理論と不十分に結びついており、その道徳的意味はしばしば不明である。
本稿では,グループフェアネス指標の包括的枠組みを提案する。
異なるグループの公平度尺度は、影響を受ける個人に対する決定の利益や害を測定する方法や、利益に対する道徳的主張について、その選択が異なる。
我々の統一フレームワークは、標準群公正度メトリクスに関連する規範的選択を明らかにし、それらの道徳的実体の解釈を可能にする。
さらに、この広い視点は、文献に見られるような標準的公平度メトリクスの拡張のための構造を提供する。
この拡張により、標準群フェアネス指標に対するいくつかの批判、具体的には、(1)それらはパリティベース、すなわち、しばしば辺境化されたグループに有害なグループ間の何らかの形態の平等を要求すること、(2)これらのグループに対する決定をグループ間でのみ比較すること、(3)分配的正義文学の全幅が十分に表現されていないこと、などへの対処が可能になる。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation [18.372355677006965]
フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。