論文の概要: The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default
- arxiv url: http://arxiv.org/abs/2302.02404v1
- Date: Sun, 5 Feb 2023 15:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:25:39.458022
- Title: The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default
- Title(参考訳): 公正な機械学習の不公平性: レベルダウンと厳格な平等主義
- Authors: Brent Mittelstadt, Sandra Wachter, Chris Russell
- Abstract要約: 本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
- 参考スコア(独自算出の注目度): 10.281644134255576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years fairness in machine learning (ML) has emerged as a highly
active area of research and development. Most define fairness in simple terms,
where fairness means reducing gaps in performance or outcomes between
demographic groups while preserving as much of the accuracy of the original
system as possible. This oversimplification of equality through fairness
measures is troubling. Many current fairness measures suffer from both fairness
and performance degradation, or "levelling down," where fairness is achieved by
making every group worse off, or by bringing better performing groups down to
the level of the worst off. When fairness can only be achieved by making
everyone worse off in material or relational terms through injuries of stigma,
loss of solidarity, unequal concern, and missed opportunities for substantive
equality, something would appear to have gone wrong in translating the vague
concept of 'fairness' into practice. This paper examines the causes and
prevalence of levelling down across fairML, and explore possible justifications
and criticisms based on philosophical and legal theories of equality and
distributive justice, as well as equality law jurisprudence. We find that
fairML does not currently engage in the type of measurement, reporting, or
analysis necessary to justify levelling down in practice. We propose a first
step towards substantive equality in fairML: "levelling up" systems by design
through enforcement of minimum acceptable harm thresholds, or "minimum rate
constraints," as fairness constraints. We likewise propose an alternative
harms-based framework to counter the oversimplified egalitarian framing
currently dominant in the field and push future discussion more towards
substantive equality opportunities and away from strict egalitarianism by
default. N.B. Shortened abstract, see paper for full abstract.
- Abstract(参考訳): 近年,機械学習(ML)の公正性は研究・開発において活発な分野として現れている。
フェアネス(fairness)とは、集団間のパフォーマンスや成果のギャップを少なくし、元のシステムの精度を可能な限り保ちながら、フェアネスを定義することを指す。
この公平度対策による平等の過度な単純化は厄介である。
現在のフェアネス対策の多くは、フェアネスとパフォーマンスの低下、あるいは各グループをより悪くしたり、より優れたパフォーマンスグループを最悪のオフのレベルに下げることによってフェアネスが達成される「レベルダウン」の両方に苦しむ。
スティグマの傷、連帯の喪失、不平等な懸念、実質的平等の機会の欠如によって、物質的あるいは関係的な条件で全員を悪化させることで、公平が達成できるならば、曖昧な「公正」の概念を実践に翻訳する際に何かが間違っているように思われる。
本稿では,fairmlにまたがる平準化の原因と頻度を調査し,平等と分配的正義の哲学的,法的理論に基づく正当化と批判,および平等法の法学を考察する。
FairMLは現在、レベルダウンを正当化するために必要な測定、レポート、分析のタイプに関与していません。
そこで本研究では,fairmlにおける従属平等への第一歩として,最小許容危害しきい値(最小レート制約)をフェアネス制約として適用することにより,システムの設計による「レベルアップ」を提案する。
同様に、この分野で現在主流となっている過度に単純化された平等主義のフレーミングに対抗し、将来の議論を実質的な平等の機会に向け、そしてデフォルトで厳格な平等主義から遠ざけるための代替的なハーmsベースのフレームワークを提案する。
n.b. shortified abstract 完全な抽象のための紙を参照。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness [3.42658286826597]
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
論文 参考訳(メタデータ) (2021-07-09T19:29:57Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。