論文の概要: Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness
- arxiv url: http://arxiv.org/abs/2107.04642v1
- Date: Fri, 9 Jul 2021 19:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 15:42:53.869962
- Title: Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness
- Title(参考訳): とは何か?
アルゴリズムフェアネスにおける形式的および実体的平等
- Authors: Ben Green
- Abstract要約: アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the face of compounding crises of social and economic inequality, many
have turned to algorithmic decision-making to achieve greater fairness in
society. As these efforts intensify, reasoning within the burgeoning field of
"algorithmic fairness" increasingly shapes how fairness manifests in practice.
This paper interrogates whether algorithmic fairness provides the appropriate
conceptual and practical tools for enhancing social equality. I argue that the
dominant, "formal" approach to algorithmic fairness is ill-equipped as a
framework for pursuing equality, as its narrow frame of analysis generates
restrictive approaches to reform. In light of these shortcomings, I propose an
alternative: a "substantive" approach to algorithmic fairness that centers
opposition to social hierarchies and provides a more expansive analysis of how
to address inequality. This substantive approach enables more fruitful
theorizing about the role of algorithms in combatting oppression. The
distinction between formal and substantive algorithmic fairness is exemplified
by each approach's responses to the "impossibility of fairness" (an
incompatibility between mathematical definitions of algorithmic fairness).
While the formal approach requires us to accept the "impossibility of fairness"
as a harsh limit on efforts to enhance equality, the substantive approach
allows us to escape the "impossibility of fairness" by suggesting reforms that
are not subject to this false dilemma and that are better equipped to
ameliorate conditions of social oppression.
- Abstract(参考訳): 社会的・経済的不平等の複合的危機に直面した多くの人々は、社会的公正を達成するためにアルゴリズム的意思決定に目を向けた。
これらの取り組みが強化されるにつれて、"algorithmic fairness"という急成長する分野における推論は、実践においての公正さの出現をますます形作る。
本稿では, アルゴリズム的公平性が, 社会的平等性を高めるための適切な概念的, 実践的なツールを提供するかどうかを問う。
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、その分析の狭い枠組みが改革に対する制限的なアプローチを生成するため、平等を追求する枠組みとして不適切である、と私は論じる。
これらの欠点を踏まえて、社会階層に反するアルゴリズム的公正に対する「実質的」アプローチを提案し、不平等に対処する方法をより広範囲に分析する。
この静的アプローチは、抑圧と戦うアルゴリズムの役割についてより実りある理論化を可能にする。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実施可能性」(アルゴリズム的公正の数学的定義の不適合性)に対する応答によって例示される。
形式的なアプローチでは、平等を高める努力に対する厳しい制限として「公正の不可能性」を受け入れる必要があるが、従属的なアプローチは、この虚偽のジレンマに従わず、社会的抑圧の状態を改善できるような改革を提案することによって、「公平の不可能性」から逃れることができる。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - It's Not Fairness, and It's Not Fair: The Failure of Distributional
Equality and the Promise of Relational Equality in Complete-Information
Hiring Games [2.8935588665357077]
既存の差別と不正は、しばしば、不平等な資源の分配よりも、不平等な社会的関係の結果である。
フェアネスと平等という既存の計算的・経済的定義を最適化しても、不平等な社会的関係を防げないことを示す。
論文 参考訳(メタデータ) (2022-09-12T20:35:42Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Optimal Algorithms for Decentralized Stochastic Variational Inequalities [113.43047601775453]
この作業は、ますます重要になるが十分に理解されていない分散的な設定に集中する。
通信と局所的な繰り返しの両方の下位境界を示し、これらの下位境界に一致する最適なアルゴリズムを構築する。
我々のアルゴリズムは、分散化されたケースだけでなく、決定論的で非分散的な文献でも利用できる。
論文 参考訳(メタデータ) (2022-02-06T13:14:02Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Shortcomings of Counterfactual Fairness and a Proposed Modification [0.0]
反事実的公正性は、アルゴリズムが公正であるために必要な条件ではないと私は主張する。
そして、この欠点を解決するために、どのように制約を修正できるかを提案します。
論文 参考訳(メタデータ) (2020-11-14T14:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。