論文の概要: Fairness in machine learning: against false positive rate equality as a
measure of fairness
- arxiv url: http://arxiv.org/abs/2007.02890v1
- Date: Mon, 6 Jul 2020 17:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:59:24.362315
- Title: Fairness in machine learning: against false positive rate equality as a
measure of fairness
- Title(参考訳): 機械学習におけるフェアネス--フェアネス尺度としての偽陽性率平等に反対
- Authors: Robert Long
- Abstract要約: 2つの一般的な公正度尺度は、キャリブレーションと偽陽性率の等式である。
私はこれらの措置について考えるための倫理的枠組みを与え、偽陽性率が公正性について何も追跡していないと主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning informs increasingly consequential decisions, different
metrics have been proposed for measuring algorithmic bias or unfairness. Two
popular fairness measures are calibration and equality of false positive rate.
Each measure seems intuitively important, but notably, it is usually impossible
to satisfy both measures. For this reason, a large literature in machine
learning speaks of a fairness tradeoff between these two measures. This framing
assumes that both measures are, in fact, capturing something important. To
date, philosophers have not examined this crucial assumption, and examined to
what extent each measure actually tracks a normatively important property. This
makes this inevitable statistical conflict, between calibration and false
positive rate equality, an important topic for ethics. In this paper, I give an
ethical framework for thinking about these measures and argue that, contrary to
initial appearances, false positive rate equality does not track anything about
fairness, and thus sets an incoherent standard for evaluating the fairness of
algorithms.
- Abstract(参考訳): 機械学習が次々に決定を下すにつれて、アルゴリズムの偏見や不公平さを測定するためのさまざまな指標が提案されている。
2つの一般的な公正度尺度は、キャリブレーションと偽陽性率の等式である。
それぞれの尺度は直感的に重要であるように見えるが、特に両方の尺度を満たすことは不可能である。
このため、機械学習における大きな文献では、これらの2つの尺度の間の公正なトレードオフが語られている。
このフレーミングは、両方の尺度が実際に重要なものを捉えていると仮定している。
これまで、哲学者はこの決定的な仮定を検証しておらず、それぞれの測度が基準的に重要な性質を実際に追跡する程度を調べてきた。
これにより、キャリブレーションと偽陽性率平等の間の必然的な統計的衝突が倫理の重要なトピックとなっている。
本稿では,これらの対策を考えるための倫理的枠組みを提示し,初出の出現と異なり,偽陽性率は公平性について何も追跡せず,アルゴリズムの公正性を評価するための一貫性のない基準を定めている。
関連論文リスト
- The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z) - On the Moral Justification of Statistical Parity [0.0]
公正性の重要かつしばしば無視される側面は、道徳的な観点からある公正度測定をいかに正当化するかという問題である。
本研究の目的は,独立の統計的公正性基準に関連する道徳的側面を考察することである。
論文 参考訳(メタデータ) (2020-11-04T00:26:15Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。