論文の概要: Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI
- arxiv url: http://arxiv.org/abs/2005.05906v1
- Date: Tue, 12 May 2020 16:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:07:50.702958
- Title: Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI
- Title(参考訳): 公正が自動化できない理由:EUの非差別法とAIのギャップを埋める
- Authors: Sandra Wachter, Brent Mittelstadt, Chris Russell
- Abstract要約: 欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
- 参考スコア(独自算出の注目度): 10.281644134255576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article identifies a critical incompatibility between European notions
of discrimination and existing statistical measures of fairness. First, we
review the evidential requirements to bring a claim under EU non-discrimination
law. Due to the disparate nature of algorithmic and human discrimination, the
EU's current requirements are too contextual, reliant on intuition, and open to
judicial interpretation to be automated. Second, we show how the legal
protection offered by non-discrimination law is challenged when AI, not humans,
discriminate. Humans discriminate due to negative attitudes (e.g. stereotypes,
prejudice) and unintentional biases (e.g. organisational practices or
internalised stereotypes) which can act as a signal to victims that
discrimination has occurred. Finally, we examine how existing work on fairness
in machine learning lines up with procedures for assessing cases under EU
non-discrimination law. We propose "conditional demographic disparity" (CDD) as
a standard baseline statistical measurement that aligns with the European Court
of Justice's "gold standard." Establishing a standard set of statistical
evidence for automated discrimination cases can help ensure consistent
procedures for assessment, but not judicial interpretation, of cases involving
AI and automated systems. Through this proposal for procedural regularity in
the identification and assessment of automated discrimination, we clarify how
to build considerations of fairness into automated systems as far as possible
while still respecting and enabling the contextual approach to judicial
interpretation practiced under EU non-discrimination law.
N.B. Abridged abstract
- Abstract(参考訳): 本論では、欧州の差別概念と既存の公正性の統計的尺度の相違について述べる。
まず、EU非差別法に基づく請求を提出するための明確な要件について検討する。
アルゴリズムと人間の差別の異なる性質のため、EUの現在の要件は文脈が多すぎ、直観に依存しており、自動化されるべき司法解釈に開放されている。
第2に、人間ではなくAIが差別を行う場合、非差別法によって提供される法的保護がいかに問題となるかを示す。
人間は否定的な態度(例えば、ステレオタイプ、偏見)と意図しない偏見(例えば、組織的慣行や内在的なステレオタイプ)によって差別され、差別が起こったという被害者へのシグナルとして機能する。
最後に、機械学習における公正性に関する既存の研究が、EU非差別法に基づくケース評価の手順とどのように一致しているかを検討する。
我々は,欧州司法裁判所の「金の基準」に適合する基準的統計測定として,条件付き人口格差(CDD)を提案する。
自動識別事件の統計的証拠の標準セットを確立することは、AIや自動システムを含むケースの、司法解釈ではなく、評価のための一貫した手続きを確保するのに役立つ。
自動識別の特定・評価における手続き的規則性の提案を通じて,EU非差別法の下で実施される司法解釈に対する文脈的アプローチを引き続き尊重し,有効にしつつ,可能な限り公正性を考慮した自動化システムの構築方法を明らかにする。
N.B. Abridged 抽象
関連論文リスト
- Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。