論文の概要: On Algorithmic Fairness and the EU Regulations
- arxiv url: http://arxiv.org/abs/2411.08363v1
- Date: Wed, 13 Nov 2024 06:23:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 19:25:17.007969
- Title: On Algorithmic Fairness and the EU Regulations
- Title(参考訳): アルゴリズムフェアネスとEU規制について
- Authors: Jukka Ruohonen,
- Abstract要約: 論文は、欧州連合(EU)における非差別と重要な法律に焦点を当てたアルゴリズム的公正性について議論する
人工知能(AI)に関するEUの差別に関する議論
論文は、ソフトウェア工学におけるコンプライアンスの研究領域を拡大し、強化するいくつかの法的洞察をもって、アルゴリズムフェアネス研究に貢献する。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License:
- Abstract: The paper discusses algorithmic fairness by focusing on non-discrimination and a few important laws in the European Union (EU). In addition to the EU laws addressing discrimination explicitly, the discussion is based on the EU's recently enacted regulation for artificial intelligence (AI) and the older General Data Protection Regulation (GDPR). Through theoretical case analysis, on one hand, the paper demonstrates that correcting discriminatory biases in AI systems can be legally done under the EU regulations. On the other hand, the cases also illustrate some practical scenarios from which legal non-compliance may follow. With these cases and the accompanying discussion, the paper contributes to the algorithmic fairness research with a few legal insights, enlarging and strengthening also the growing research domain of compliance in software engineering.
- Abstract(参考訳): 本稿は、非差別と欧州連合(EU)におけるいくつかの重要な法律に焦点をあてて、アルゴリズムの公正性について論じる。
差別に明示的に対処するEU法に加えて、この議論はEUが最近制定した人工知能(AI)の規制と、旧来のGDPR(General Data Protection Regulation)に基づいている。
理論的ケース分析を通じて、この論文は、AIシステムにおける差別バイアスの補正は、EU規則の下で法的に可能であることを実証する。
一方で、これらのケースは、法的非コンプライアンスが従ういくつかの実践的なシナリオも示している。
これらの事例とそれに伴う議論により、本論文は、ソフトウェア工学におけるコンプライアンスの研究領域を拡大し、強化し、いくつかの法的洞察を得て、アルゴリズムフェアネス研究に寄与する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Formalising Anti-Discrimination Law in Automated Decision Systems [1.560976479364936]
本稿では,従来のアルゴリズムフェアネス手法を用いて,自動意思決定における法的課題について検討する。
差別防止法の原則を意思決定理論の枠組みに翻訳することで、差別を定式化する。
本稿では,自動意思決定システム開発のための,法的な新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-29T10:59:21Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond [2.608935407927351]
我々は、DMAと関連するEUの行動が4つの重要な領域にわたるAIモデルとその基盤データに与える影響を分析する。
我々は、CJEU法則に基づいて、従来の非差別法と競争法の両方において、非差別の概念のコヒーレントな解釈を見いだせるかを示す。
論文 参考訳(メタデータ) (2022-12-09T17:29:19Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。