論文の概要: Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2403.20089v2
- Date: Wed, 26 Jun 2024 07:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 18:55:03.137458
- Title: Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness
- Title(参考訳): 非差別法とアルゴリズムフェアネスにおけるAI法の役割
- Authors: Luca Deck, Jan-Laurin Müller, Conradin Braun, Domenique Zipperling, Niklas Kühl,
- Abstract要約: AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
- 参考スコア(独自算出の注目度): 1.5029560229270191
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The topic of fairness in AI, as debated in the FATE (Fairness, Accountability, Transparency, and Ethics in AI) communities, has sparked meaningful discussions in the past years. However, from a legal perspective, particularly from the perspective of European Union law, many open questions remain. Whereas algorithmic fairness aims to mitigate structural inequalities at design-level, European non-discrimination law is tailored to individual cases of discrimination after an AI model has been deployed. The AI Act might present a tremendous step towards bridging these two approaches by shifting non-discrimination responsibilities into the design stage of AI models. Based on an integrative reading of the AI Act, we comment on legal as well as technical enforcement problems and propose practical implications on bias detection and bias correction in order to specify and comply with specific technical requirements.
- Abstract(参考訳): FATE(Fairness, Accountability, Transparency, Ethics in AI)コミュニティで議論されているように、AIの公平性というトピックは、ここ数年で有意義な議論を引き起こしている。
しかし、法的な観点から、特に欧州連合法の観点からは、多くのオープンな疑問が残る。
アルゴリズム的公正性は、設計レベルでの構造的不平等を軽減することを目的としているが、欧州の非差別法は、AIモデルがデプロイされた後、個別の差別ケースに適合している。
AI法は、非差別的な責任をAIモデルの設計段階に移すことによって、これらの2つのアプローチをブリッジする大きな一歩を示すかもしれない。
AI法を総合的に読み取ることにより、法と技術執行の問題にコメントし、特定の技術的要件を特定し、遵守するためにバイアス検出とバイアス補正に実践的な影響を提案する。
関連論文リスト
- It's complicated. The relationship of algorithmic fairness and non-discrimination regulations in the EU AI Act [2.9914612342004503]
EUは最近、AIモデルの特定のルールを規定するAI法を成立させた。
本稿では、法的な非差別規則と機械学習に基づくアルゴリズムフェアネスの概念の両方を紹介する。
論文 参考訳(メタデータ) (2025-01-22T15:38:09Z) - On Algorithmic Fairness and the EU Regulations [0.2538209532048867]
この論文は、欧州連合(EU)における非差別に焦点を当てたアルゴリズム的公正に焦点を当てている。
この論文は、AIシステムの差別バイアスを修正することは、EU規則の下で法的に可能であることを実証している。
この論文は、AIエンジニアリングにおけるコンプライアンスの増大する研究領域を拡大し、強化し、いくつかの法的洞察を得て、アルゴリズムフェアネス研究に貢献する。
論文 参考訳(メタデータ) (2024-11-13T06:23:54Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Formalising Anti-Discrimination Law in Automated Decision Systems [1.560976479364936]
英国における差別防止法に基づく新たな意思決定理論の枠組みを導入する。
本稿では,推定誤差と基礎となるデータ生成過程を考慮に入れた「条件推定パリティ」指標を提案する。
弊社のアプローチは、機械学習の公正度測定値と差別防止法の分離を橋渡しし、非差別的自動意思決定システムを開発するための法的基盤となるフレームワークを提供する。
論文 参考訳(メタデータ) (2024-06-29T10:59:21Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Fairness and Explainability in Automatic Decision-Making Systems. A
challenge for computer science and law [3.656085108168043]
本稿では,自動アルゴリズム決定における公平性問題を分析するための学際的構造に貢献する。
第1節は、教師付き学習における技術的な選択が、考慮すべき社会的意味を持っていることを示している。
第2節では、意図しない集団差別の問題に対する文脈的アプローチを提案する。
論文 参考訳(メタデータ) (2022-05-14T01:08:47Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。