論文の概要: Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI
- arxiv url: http://arxiv.org/abs/2005.05906v1
- Date: Tue, 12 May 2020 16:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:07:50.702958
- Title: Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI
- Title(参考訳): 公正が自動化できない理由:EUの非差別法とAIのギャップを埋める
- Authors: Sandra Wachter, Brent Mittelstadt, Chris Russell
- Abstract要約: 欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
- 参考スコア(独自算出の注目度): 10.281644134255576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article identifies a critical incompatibility between European notions
of discrimination and existing statistical measures of fairness. First, we
review the evidential requirements to bring a claim under EU non-discrimination
law. Due to the disparate nature of algorithmic and human discrimination, the
EU's current requirements are too contextual, reliant on intuition, and open to
judicial interpretation to be automated. Second, we show how the legal
protection offered by non-discrimination law is challenged when AI, not humans,
discriminate. Humans discriminate due to negative attitudes (e.g. stereotypes,
prejudice) and unintentional biases (e.g. organisational practices or
internalised stereotypes) which can act as a signal to victims that
discrimination has occurred. Finally, we examine how existing work on fairness
in machine learning lines up with procedures for assessing cases under EU
non-discrimination law. We propose "conditional demographic disparity" (CDD) as
a standard baseline statistical measurement that aligns with the European Court
of Justice's "gold standard." Establishing a standard set of statistical
evidence for automated discrimination cases can help ensure consistent
procedures for assessment, but not judicial interpretation, of cases involving
AI and automated systems. Through this proposal for procedural regularity in
the identification and assessment of automated discrimination, we clarify how
to build considerations of fairness into automated systems as far as possible
while still respecting and enabling the contextual approach to judicial
interpretation practiced under EU non-discrimination law.
N.B. Abridged abstract
- Abstract(参考訳): 本論では、欧州の差別概念と既存の公正性の統計的尺度の相違について述べる。
まず、EU非差別法に基づく請求を提出するための明確な要件について検討する。
アルゴリズムと人間の差別の異なる性質のため、EUの現在の要件は文脈が多すぎ、直観に依存しており、自動化されるべき司法解釈に開放されている。
第2に、人間ではなくAIが差別を行う場合、非差別法によって提供される法的保護がいかに問題となるかを示す。
人間は否定的な態度(例えば、ステレオタイプ、偏見)と意図しない偏見(例えば、組織的慣行や内在的なステレオタイプ)によって差別され、差別が起こったという被害者へのシグナルとして機能する。
最後に、機械学習における公正性に関する既存の研究が、EU非差別法に基づくケース評価の手順とどのように一致しているかを検討する。
我々は,欧州司法裁判所の「金の基準」に適合する基準的統計測定として,条件付き人口格差(CDD)を提案する。
自動識別事件の統計的証拠の標準セットを確立することは、AIや自動システムを含むケースの、司法解釈ではなく、評価のための一貫した手続きを確保するのに役立つ。
自動識別の特定・評価における手続き的規則性の提案を通じて,EU非差別法の下で実施される司法解釈に対する文脈的アプローチを引き続き尊重し,有効にしつつ,可能な限り公正性を考慮した自動化システムの構築方法を明らかにする。
N.B. Abridged 抽象
関連論文リスト
- Formalising Anti-Discrimination Law in Automated Decision Systems [1.560976479364936]
本稿では,従来のアルゴリズムフェアネス手法を用いて,自動意思決定における法的課題について検討する。
差別防止法の原則を意思決定理論の枠組みに翻訳することで、差別を定式化する。
本稿では,自動意思決定システム開発のための,法的な新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-29T10:59:21Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Unlawful Proxy Discrimination: A Framework for Challenging Inherently Discriminatory Algorithms [4.1221687771754]
EUの直接差別という法的概念は、様々なアルゴリズムによる意思決定の文脈に適用できる。
間接的差別とは異なり、直接的差別の枠組みには「客観的正当化」段階は存在しない。
アルゴリズムの文脈における直接差別の最も可能性の高い候補に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T10:06:17Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。