論文の概要: Algorithmic Fairness and Structural Injustice: Insights from Feminist
Political Philosophy
- arxiv url: http://arxiv.org/abs/2206.00945v1
- Date: Thu, 2 Jun 2022 09:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:27:21.462534
- Title: Algorithmic Fairness and Structural Injustice: Insights from Feminist
Political Philosophy
- Title(参考訳): アルゴリズム的公正性と構造的不正--フェミニストの政治哲学から
- Authors: Atoosa Kasirzadeh
- Abstract要約: 倫理的公正」は、データ駆動アルゴリズムにおける有害なバイアスを軽減することを目的としている。
フェミニスト政治哲学者の社会正義に対する見解は、ほとんど無視されてきた。
本稿では、フェミニストの政治哲学をアルゴリズム的公正性に導く。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data-driven predictive algorithms are widely used to automate and guide
high-stake decision making such as bail and parole recommendation, medical
resource distribution, and mortgage allocation. Nevertheless, harmful outcomes
biased against vulnerable groups have been reported. The growing research field
known as 'algorithmic fairness' aims to mitigate these harmful biases. Its
primary methodology consists in proposing mathematical metrics to address the
social harms resulting from an algorithm's biased outputs. The metrics are
typically motivated by -- or substantively rooted in -- ideals of distributive
justice, as formulated by political and legal philosophers. The perspectives of
feminist political philosophers on social justice, by contrast, have been
largely neglected. Some feminist philosophers have criticized the paradigm of
distributive justice and have proposed corrective amendments to surmount its
limitations. The present paper brings some key insights of feminist political
philosophy to algorithmic fairness. The paper has three goals. First, I show
that algorithmic fairness does not accommodate structural injustices in its
current scope. Second, I defend the relevance of structural injustices -- as
pioneered in the contemporary philosophical literature by Iris Marion Young --
to algorithmic fairness. Third, I take some steps in developing the paradigm of
'responsible algorithmic fairness' to correct for errors in the current scope
and implementation of algorithmic fairness.
- Abstract(参考訳): データ駆動予測アルゴリズムは、保釈や仮釈放の勧告、医療資源の分配、住宅ローンの割り当てといった高い意思決定を自動化するために広く利用されている。
しかし、脆弱な集団に対する有害な結果が報告されている。
algorithmic fairness」として知られる成長する研究分野は、これらの有害なバイアスを軽減することを目的としている。
その主要な方法論は、アルゴリズムの偏った出力から生じる社会的危害に対処するために数学的指標を提案することである。
典型的には、政治的・法的哲学者によって定式化された分配的正義の理想によって動機づけられる。
対照的に、社会正義に対するフェミニストの政治哲学者の見解は無視されている。
一部のフェミニスト哲学者は、分配的正義のパラダイムを批判し、その限界を克服する修正案を提案した。
本稿では,フェミニストの政治哲学に関する重要な洞察をアルゴリズム的公正性にもたらす。
論文には3つの目標がある。
まず,アルゴリズムの公平性は,現在の範囲では構造的不公平を許容しないことを示す。
第2に、イリス・マリオン・ヤングによる現代哲学文学の先駆的な構造的不正がアルゴリズム的公正性に関連していることを擁護する。
第3に,アルゴリズムフェアネスの現在の範囲と実装における誤りを補正する「責任のあるアルゴリズムフェアネス」のパラダイムを策定する。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness [3.42658286826597]
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
論文 参考訳(メタデータ) (2021-07-09T19:29:57Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。