論文の概要: Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree
- arxiv url: http://arxiv.org/abs/2305.13938v2
- Date: Wed, 24 May 2023 20:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 19:30:10.440719
- Title: Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree
- Title(参考訳): eu非差別法のレンズを通したアルゴリズムの不公平:あるいはなぜ法律が決定木でないのか
- Authors: Hilde Weerts, Rapha\"ele Xenidis, Fabien Tarissan, Henrik Palmer
Olsen, Mykola Pechenizkiy
- Abstract要約: 我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
- 参考スコア(独自算出の注目度): 5.153559154345212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concerns regarding unfairness and discrimination in the context of artificial
intelligence (AI) systems have recently received increased attention from both
legal and computer science scholars. Yet, the degree of overlap between notions
of algorithmic bias and fairness on the one hand, and legal notions of
discrimination and equality on the other, is often unclear, leading to
misunderstandings between computer science and law. What types of bias and
unfairness does the law address when it prohibits discrimination? What role can
fairness metrics play in establishing legal compliance? In this paper, we aim
to illustrate to what extent European Union (EU) non-discrimination law
coincides with notions of algorithmic fairness proposed in computer science
literature and where they differ. The contributions of this paper are as
follows. First, we analyse seminal examples of algorithmic unfairness through
the lens of EU non-discrimination law, drawing parallels with EU case law.
Second, we set out the normative underpinnings of fairness metrics and
technical interventions and compare these to the legal reasoning of the Court
of Justice of the EU. Specifically, we show how normative assumptions often
remain implicit in both disciplinary approaches and explain the ensuing
limitations of current AI practice and non-discrimination law. We conclude with
implications for AI practitioners and regulators.
- Abstract(参考訳): 人工知能システム(AI)の文脈における不公平性と差別に関する懸念は、最近、法学とコンピュータサイエンスの両方の学者から注目を集めている。
しかし、アルゴリズム的偏見と公平性の概念と差別と平等の法的な概念の重なり合いの程度は、しばしば不明であり、コンピュータ科学と法の間の誤解につながる。
差別を禁じる法律はどのような偏見と不公平さに対処するのか。
法的コンプライアンスを確立する上で、公正度指標はどのような役割を果たすのか?
本稿では,欧州連合(EU)の非差別法が,コンピュータサイエンス文学において提案されるアルゴリズム的公正性の概念とどのように一致し,どこで異なるかを説明することを目的とする。
本論文の貢献は以下の通りである。
まず、euの非差別法のレンズを通してアルゴリズム的不公平の独創的な例を分析し、euの事例法と類似点を描き出す。
第2に、公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
具体的には、規範的仮定が規律的アプローチの両方においてしばしば暗黙的に残ることを示し、現在のai実践と非差別法の制約を説明する。
我々は、AI実践者と規制当局に影響を及ぼす。
関連論文リスト
- Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。