論文の概要: Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond
- arxiv url: http://arxiv.org/abs/2212.04997v1
- Date: Fri, 9 Dec 2022 17:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:58:41.608044
- Title: Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond
- Title(参考訳): ゲートキーパーAIとデータの規制:DMA、GDPRなどの下での透明性、アクセス、公正性
- Authors: Philipp Hacker, Johann Cordes and Janina Rochon
- Abstract要約: 我々は、DMAと関連するEUの行動が4つの重要な領域にわたるAIモデルとその基盤データに与える影響を分析する。
我々は、CJEU法則に基づいて、従来の非差別法と競争法の両方において、非差別の概念のコヒーレントな解釈を見いだせるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is not only increasingly used in business and
administration contexts, but a race for its regulation is also underway, with
the EU spearheading the efforts. Contrary to existing literature, this article
suggests, however, that the most far-reaching and effective EU rules for AI
applications in the digital economy will not be contained in the proposed AI
Act - but have just been enacted in the Digital Markets Act. We analyze the
impact of the DMA and related EU acts on AI models and their underlying data
across four key areas: disclosure requirements; the regulation of AI training
data; access rules; and the regime for fair rankings. The paper demonstrates
that fairness, in the sense of the DMA, goes beyond traditionally protected
categories of non-discrimination law on which scholarship at the intersection
of AI and law has so far largely focused on. Rather, we draw on competition law
and the FRAND criteria known from intellectual property law to interpret and
refine the DMA provisions on fair rankings. Moreover, we show how, based on
CJEU jurisprudence, a coherent interpretation of the concept of
non-discrimination in both traditional non-discrimination and competition law
may be found. The final part sketches specific proposals for a comprehensive
framework of transparency, access, and fairness under the DMA and beyond.
- Abstract(参考訳): 人工知能は、ビジネスや行政の文脈での利用が増えているだけでなく、EUが取り組みを先導し、その規制の競争も進行中である。
しかし、既存の文献とは対照的に、この記事では、デジタル経済におけるAIアプリケーションに対する最も広範囲で効果的なEUのルールは、提案されたAI法には含まれないが、デジタル市場法(Digital Markets Act)に規定されている。
我々は、開示要件、AIトレーニングデータの規制、アクセスルール、公正なランキングの制度の4つの主要な領域にわたる、AIモデルとその基盤となるデータに対するDMAおよび関連するEUの行動の影響を分析する。
論文は、公正性は、DMAの意味では、これまでAIと法律の交点における奨学金が主に焦点を当ててきた、伝統的に保護された非差別法のカテゴリーを越えていることを示している。
むしろ、競争法と知的財産法から知られているFRAND基準に基づいて、公正なランク付けに関するDMA規定を解釈し、洗練する。
さらに,cjeu法学に基づいて,従来の非差別法と競争法の両方における非差別概念の一貫性のある解釈を見いだせることを示す。
最後のパートでは、DMA以降における透明性、アクセス、公平性の包括的なフレームワークに関する具体的な提案をスケッチしている。
関連論文リスト
- Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness
Criteria in Machine Learning and Law [0.6824747267214372]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a Flexible Framework for Algorithmic Fairness [0.8379286663107844]
近年、アルゴリズム決定システムにおける非差別性を保証するための多くの異なる定義が提案されている。
本稿では, 最適な輸送手段を利用して, フェアネス定義の相違を補間するフレキシブルな枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-15T16:06:53Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。