論文の概要: Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics
- arxiv url: http://arxiv.org/abs/2206.02897v1
- Date: Mon, 6 Jun 2022 20:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:59:02.377458
- Title: Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics
- Title(参考訳): fair mlの基礎的前提としての分散的正義--集団公平度メトリクスの統一、拡張、解釈
- Authors: Joachim Baumann, Corinna Hertweck, Michele Loi, Christoph Heitz
- Abstract要約: グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
本稿では,分配的正義の理論に基づく意思決定システムの公正性分析のための一般的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group fairness metrics are an established way of assessing the fairness of
prediction-based decision-making systems. However, these metrics are still
insufficiently linked to philosophical theories, and their moral meaning is
often unclear. We propose a general framework for analyzing the fairness of
decision systems based on theories of distributive justice, encompassing
different established ``patterns of justice'' that correspond to different
normative positions. We show that the most popular group fairness metrics can
be interpreted as special cases of our approach. Thus, we provide a unifying
and interpretative framework for group fairness metrics that reveals the
normative choices associated with each of them and that allows understanding
their moral substance. At the same time, we provide an extension of the space
of possible fairness metrics beyond the ones currently discussed in the fair ML
literature. Our framework also allows overcoming several limitations of group
fairness metrics that have been criticized in the literature, most notably (1)
that they are parity-based, i.e., that they demand some form of equality
between groups, which may sometimes be harmful to marginalized groups, (2) that
they only compare decisions across groups, but not the resulting consequences
for these groups, and (3) that the full breadth of the distributive justice
literature is not sufficiently represented.
- Abstract(参考訳): グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
しかし、これらの指標はいまだに哲学理論と不十分に結びついており、その道徳的意味はしばしば不明である。
本稿では,異なる規範的立場に対応する「正義のパターン」を包含する,分配的正義の理論に基づく意思決定システムの公正性を分析するための一般的な枠組みを提案する。
最も一般的なグループフェアネスの指標は、我々のアプローチの特別なケースと解釈できることを示す。
そこで,我々は,集団公平度指標の統一的・解釈的枠組みを提供し,それぞれに結びついた規範的選択を明らかにし,そのモラルを理解できるようにする。
同時に、現在フェアml文献で議論されているものを超えて、可能な公平度メトリクスの空間の拡張を提供する。
また,本研究の枠組みは,(1)同一性に基づく集団間平等の何らかの形態を要求すること,(2)集団間の意思決定のみを比較すること,(2)これらの集団に対する結果ではないこと,(3)分配正義文学の全幅が十分に表現されていないこと,など,文献で批判されている集団公平度指標のいくつかの制限を克服することを可能にする。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。