論文の概要: What Is the Point of Equality in Machine Learning Fairness? Beyond Equality of Opportunity
- arxiv url: http://arxiv.org/abs/2506.16782v1
- Date: Fri, 20 Jun 2025 06:57:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.359339
- Title: What Is the Point of Equality in Machine Learning Fairness? Beyond Equality of Opportunity
- Title(参考訳): 機械学習フェアネスにおける平等のポイントは何か?-機会の平等を超えて
- Authors: Youjin Kong,
- Abstract要約: 機械学習(ML)は急速に研究の領域になってきた。
しかし、そもそもなぜMLにおける不公平は道徳的に間違っているのか?
本稿では、分配的平等に対するこの排他的焦点は、不完全であり、潜在的に誤解を招く倫理的基盤を提供すると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fairness in machine learning (ML) has become a rapidly growing area of research. But why, in the first place, is unfairness in ML morally wrong? And why should we care about improving fairness? Most fair-ML research implicitly appeals to distributive equality: the idea that desirable goods and benefits, such as opportunities (e.g., Barocas et al., 2023), should be equally distributed across society. Unfair ML models, then, are seen as wrong because they unequally distribute such benefits. This paper argues that this exclusive focus on distributive equality offers an incomplete and potentially misleading ethical foundation. Grounding ML fairness in egalitarianism -- the view that equality is a fundamental moral and social ideal -- requires challenging structural inequality: systematic, institutional, and durable arrangements that privilege some groups while disadvantaging others. Structural inequality manifests through ML systems in two primary forms: allocative harms (e.g., economic loss) and representational harms (e.g., stereotypes, erasure). While distributive equality helps address allocative harms, it fails to explain why representational harms are wrong -- why it is wrong for ML systems to reinforce social hierarchies that stratify people into superior and inferior groups -- and why ML systems should aim to foster a society where people relate as equals (i.e., relational equality). To address these limitations, the paper proposes a multifaceted egalitarian framework for ML fairness that integrates both distributive and relational equality. Drawing on critical social and political philosophy, this framework offers a more comprehensive ethical foundation for tackling the full spectrum of harms perpetuated by ML systems. The paper also outlines practical pathways for implementing the framework across the ML pipeline.
- Abstract(参考訳): 機械学習(ML)の公正さは、急速に研究の領域になってきた。
しかし、そもそもなぜMLにおける不公平は道徳的に間違っているのか?
そして、なぜ公正性を改善することに関心を持つべきか?
ほとんどの公正なML研究は、分配的平等を暗黙的に訴えている: 機会(例えば、Barocas et al , 2023)のような望ましい商品と利益は、社会全体に均等に分配されるべきである、という考えである。
不公平なMLモデルは、そのような利益を不平等に分配するため、間違っていると見なされる。
本稿では、分配的平等に対するこの排他的焦点は、不完全であり、潜在的に誤解を招く倫理的基盤を提供すると論じる。
平等主義におけるMLの公正性、すなわち平等は基本的な道徳的・社会的理想であるという考えは、体系的、制度的、永続的といった構造的不平等を必要とする。
構造的不平等は、アロケーション的害(例えば、経済的な損失)と表現的害(例えば、ステレオタイプ、消去)の2つの主要な形態でMLシステムを通して現れる。
分配的平等は割当的害に対処するのに役立つが、なぜ表現的害が間違っているのか、なぜMLシステムが人々を上層および下層グループに階層化する社会的階層を強化するのが間違っているのか、そしてなぜMLシステムは、人々が平等と関係する社会(すなわち、リレーショナル平等)を育むべきなのかを説明するのに失敗する。
これらの制約に対処するために,分配性と関係性の両方を統合したMLフェアネスのための多面的平等主義的枠組みを提案する。
批判的な社会的・政治的哲学に基づいて、この枠組みはMLシステムによって永続される害の完全な範囲に取り組むためのより包括的な倫理的基盤を提供する。
また、MLパイプライン全体にわたってフレームワークを実装するための実践的な経路を概説する。
関連論文リスト
- The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - It's Not Fairness, and It's Not Fair: The Failure of Distributional
Equality and the Promise of Relational Equality in Complete-Information
Hiring Games [2.8935588665357077]
既存の差別と不正は、しばしば、不平等な資源の分配よりも、不平等な社会的関係の結果である。
フェアネスと平等という既存の計算的・経済的定義を最適化しても、不平等な社会的関係を防げないことを示す。
論文 参考訳(メタデータ) (2022-09-12T20:35:42Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。