論文の概要: Group Fairness in Prediction-Based Decision Making: From Moral
Assessment to Implementation
- arxiv url: http://arxiv.org/abs/2210.10456v1
- Date: Wed, 19 Oct 2022 10:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:40:46.643945
- Title: Group Fairness in Prediction-Based Decision Making: From Moral
Assessment to Implementation
- Title(参考訳): 予測に基づく意思決定におけるグループフェアネス:モラルアセスメントから実装まで
- Authors: Joachim Baumann, Christoph Heitz
- Abstract要約: 与えられた文脈における公平さの意味の道徳的評価のための枠組みを導入する。
評価結果を、確立された統計的グループフェアネス基準にマッピングする。
我々は、FECの原則を拡張して、すべての種類のグループフェアネス基準をカバーします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness of prediction-based decision making is based on statistical
group fairness criteria. Which one of these criteria is the morally most
appropriate one depends on the context, and its choice requires an ethical
analysis. In this paper, we present a step-by-step procedure integrating three
elements: (a) a framework for the moral assessment of what fairness means in a
given context, based on the recently proposed general principle of "Fair
equality of chances" (FEC) (b) a mapping of the assessment's results to
established statistical group fairness criteria, and (c) a method for
integrating the thus-defined fairness into optimal decision making. As a second
contribution, we show new applications of the FEC principle and show that, with
this extension, the FEC framework covers all types of group fairness criteria:
independence, separation, and sufficiency. Third, we introduce an extended
version of the FEC principle, which additionally allows accounting for morally
irrelevant elements of the fairness assessment and links to well-known
relaxations of the fairness criteria. This paper presents a framework to
develop fair decision systems in a conceptually sound way, combining the moral
and the computational elements of fair prediction-based decision-making in an
integrated approach. Data and code to reproduce our results are available at
https://github.com/joebaumann/fair-prediction-based-decision-making.
- Abstract(参考訳): 予測に基づく意思決定の公平性の保証は、統計的グループフェアネス基準に基づく。
これらの基準のうちどれが道徳的に最も適切かは文脈に依存し、その選択には倫理的分析が必要である。
本稿では,3つの要素を統合したステップバイステップの手順を提案する。
(a)最近提案された「偶然の公正平等」(fec)の一般原則に基づく、与えられた文脈における公平が何を意味しているかの道徳的評価の枠組み
b) 評価の結果を確立された統計グループ公正基準にマッピングし、
(c)この定義のフェアネスを最適な意思決定に統合する方法。
第2のコントリビューションとして、FEC原則の新たな適用方法を示し、この拡張により、FECフレームワークは、独立性、分離性、充足性など、あらゆる種類のグループフェアネス基準をカバーしていることを示す。
第3に,フェアネス評価の道徳的に無関係な要素の計算と,フェアネス基準の既知の緩和との関連性を考慮した,fec原則の拡張版を提案する。
本稿では、公正な意思決定のモラルと計算要素を統合的アプローチで組み合わせ、概念的に健全な方法で公正な意思決定システムを開発するための枠組みを提案する。
結果を再現するデータとコードはhttps://github.com/joebaumann/fair-prediction-based-decision-making.comで公開されている。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - SCALES: From Fairness Principles to Constrained Decision-Making [16.906822244101445]
有効成分、非因果成分、因果成分として符号化可能であることを示す。
我々は,一段階的かつ連続的な意思決定シナリオにおいて,代替公正原則を具現化した公正な政策を提示する。
論文 参考訳(メタデータ) (2022-09-22T08:44:36Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Principal Fairness for Human and Algorithmic Decision-Making [1.2691047660244335]
我々は、人間とアルゴリズムによる意思決定のために、主公正と呼ばれる新しい公正の概念を導入する。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実をはっきりと説明している。
論文 参考訳(メタデータ) (2020-05-21T00:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。