論文の概要: Formalising Anti-Discrimination Law in Automated Decision Systems
- arxiv url: http://arxiv.org/abs/2407.00400v2
- Date: Tue, 04 Feb 2025 21:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:25:11.223679
- Title: Formalising Anti-Discrimination Law in Automated Decision Systems
- Title(参考訳): 自動判定システムにおける識別防止法則の定式化
- Authors: Holli Sargeant, Måns Magnusson,
- Abstract要約: 英国における差別防止法に基づく新たな意思決定理論の枠組みを導入する。
本稿では,推定誤差と基礎となるデータ生成過程を考慮に入れた「条件推定パリティ」指標を提案する。
弊社のアプローチは、機械学習の公正度測定値と差別防止法の分離を橋渡しし、非差別的自動意思決定システムを開発するための法的基盤となるフレームワークを提供する。
- 参考スコア(独自算出の注目度): 1.560976479364936
- License:
- Abstract: Algorithmic discrimination is a critical concern as machine learning models are used in high-stakes decision-making in legally protected contexts. Although substantial research on algorithmic bias and discrimination has led to the development of fairness metrics, several critical legal issues remain unaddressed in practice. To address these gaps, we introduce a novel decision-theoretic framework grounded in anti-discrimination law of the United Kingdom, which has global influence and aligns more closely with European and Commonwealth legal systems. We propose the 'conditional estimation parity' metric, which accounts for estimation error and the underlying data-generating process, aligning with legal standards. Through a real-world example based on an algorithmic credit discrimination case, we demonstrate the practical application of our formalism and provide insights for aligning fairness metrics with legal principles. Our approach bridges the divide between machine learning fairness metrics and anti-discrimination law, offering a legally grounded framework for developing non-discriminatory automated decision systems.
- Abstract(参考訳): アルゴリズムによる差別は、機械学習モデルが法的に保護された文脈における高い意思決定に使用されるため、重要な関心事である。
アルゴリズムの偏見と差別に関するかなりの研究が公正度指標の開発に繋がったが、実際はいくつかの重要な法的問題は未解決のままである。
これらのギャップに対処するため、英国における反差別法に基づく新たな意思決定理論の枠組みを導入し、国際的影響力を持ち、欧州およびコモンウェルス法体系とより密に連携する。
本稿では,推定誤差と基礎となるデータ生成過程を考慮に入れた「条件推定パリティ」尺度を提案する。
アルゴリズムによる信用識別の事例に基づく実世界の例を通して、フォーマリズムの実践的応用を実証し、公正度指標を法的な原則と整合させる洞察を提供する。
弊社のアプローチは、機械学習の公正度測定値と差別防止法の分離を橋渡しし、非差別的自動意思決定システムを開発するための法的基盤となるフレームワークを提供する。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Unlawful Proxy Discrimination: A Framework for Challenging Inherently Discriminatory Algorithms [4.1221687771754]
EUの直接差別という法的概念は、様々なアルゴリズムによる意思決定の文脈に適用できる。
間接的差別とは異なり、直接的差別の枠組みには「客観的正当化」段階は存在しない。
アルゴリズムの文脈における直接差別の最も可能性の高い候補に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T10:06:17Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。