論文の概要: Is calibration a fairness requirement? An argument from the point of
view of moral philosophy and decision theory
- arxiv url: http://arxiv.org/abs/2205.05512v3
- Date: Sun, 19 Jun 2022 16:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:49:34.809351
- Title: Is calibration a fairness requirement? An argument from the point of
view of moral philosophy and decision theory
- Title(参考訳): 校正は公平な要件か?
道徳哲学・意思決定論の観点からの議論
- Authors: Michele Loi and Christoph Heitz
- Abstract要約: グループキャリブレーション違反は不公平な場合もあるが、不公平な場合もある。
これは、既に文献で進歩している主張と一致しており、アルゴリズム的公正性は文脈に敏感な方法で定義されるべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide a moral analysis of two criteria of statistical
fairness debated in the machine learning literature: 1) calibration between
groups and 2) equality of false positive and false negative rates between
groups. In our paper, we focus on moral arguments in support of either measure.
The conflict between group calibration vs. false positive and false negative
rate equality is one of the core issues in the debate about group fairness
definitions among practitioners. For any thorough moral analysis, the meaning
of the term fairness has to be made explicit and defined properly. For our
paper, we equate fairness with (non-)discrimination, which is a legitimate
understanding in the discussion about group fairness. More specifically, we
equate it with prima facie wrongful discrimination in the sense this is used in
Prof. Lippert-Rasmussen's treatment of this definition. In this paper, we argue
that a violation of group calibration may be unfair in some cases, but not
unfair in others. This is in line with claims already advanced in the
literature, that algorithmic fairness should be defined in a way that is
sensitive to context. The most important practical implication is that
arguments based on examples in which fairness requires between-group
calibration, or equality in the false-positive/false-negative rates, do no
generalize. For it may be that group calibration is a fairness requirement in
one case, but not in another.
- Abstract(参考訳): 本稿では,機械学習文学における統計的公正性の2つの基準の道徳的分析について述べる。
1)グループ間の校正
2) グループ間での偽陽性と偽陰性率の等価性。
本稿では,いずれの尺度も支持する道徳的議論に焦点をあてる。
グループキャリブレーションと偽陽性と偽陰性率平等の対立は、実践者間のグループフェアネス定義に関する議論の中心的な問題の一つである。
徹底的な道徳分析のためには、公正という用語の意味を明確化し、適切に定義する必要がある。
我々の論文では、公平性は(非)差別と同等であり、これは集団公平性に関する議論における正当な理解である。
より具体的には、Lippert-Rasmussen教授のこの定義に対する扱いで使われるという意味で、プライマー・ファシエの誤った差別と等価である。
本稿では,集団校正の違反が不公平である場合もあれば,不公平ではない場合もあると論じる。
これは、既に文献で進歩している主張と一致しており、アルゴリズム的公正性は文脈に敏感な方法で定義されるべきである。
最も重要な実践的意味は、フェアネスが群間キャリブレーションや偽陽性/偽陰性率の等式を必要とする例に基づく議論は一般化しないということである。
グループキャリブレーションは、あるケースではフェアネス要件であるが、別のケースではそうではない。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。