論文の概要: Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond
- arxiv url: http://arxiv.org/abs/2212.04997v1
- Date: Fri, 9 Dec 2022 17:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:58:41.608044
- Title: Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond
- Title(参考訳): ゲートキーパーAIとデータの規制:DMA、GDPRなどの下での透明性、アクセス、公正性
- Authors: Philipp Hacker, Johann Cordes and Janina Rochon
- Abstract要約: 我々は、DMAと関連するEUの行動が4つの重要な領域にわたるAIモデルとその基盤データに与える影響を分析する。
我々は、CJEU法則に基づいて、従来の非差別法と競争法の両方において、非差別の概念のコヒーレントな解釈を見いだせるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is not only increasingly used in business and
administration contexts, but a race for its regulation is also underway, with
the EU spearheading the efforts. Contrary to existing literature, this article
suggests, however, that the most far-reaching and effective EU rules for AI
applications in the digital economy will not be contained in the proposed AI
Act - but have just been enacted in the Digital Markets Act. We analyze the
impact of the DMA and related EU acts on AI models and their underlying data
across four key areas: disclosure requirements; the regulation of AI training
data; access rules; and the regime for fair rankings. The paper demonstrates
that fairness, in the sense of the DMA, goes beyond traditionally protected
categories of non-discrimination law on which scholarship at the intersection
of AI and law has so far largely focused on. Rather, we draw on competition law
and the FRAND criteria known from intellectual property law to interpret and
refine the DMA provisions on fair rankings. Moreover, we show how, based on
CJEU jurisprudence, a coherent interpretation of the concept of
non-discrimination in both traditional non-discrimination and competition law
may be found. The final part sketches specific proposals for a comprehensive
framework of transparency, access, and fairness under the DMA and beyond.
- Abstract(参考訳): 人工知能は、ビジネスや行政の文脈での利用が増えているだけでなく、EUが取り組みを先導し、その規制の競争も進行中である。
しかし、既存の文献とは対照的に、この記事では、デジタル経済におけるAIアプリケーションに対する最も広範囲で効果的なEUのルールは、提案されたAI法には含まれないが、デジタル市場法(Digital Markets Act)に規定されている。
我々は、開示要件、AIトレーニングデータの規制、アクセスルール、公正なランキングの制度の4つの主要な領域にわたる、AIモデルとその基盤となるデータに対するDMAおよび関連するEUの行動の影響を分析する。
論文は、公正性は、DMAの意味では、これまでAIと法律の交点における奨学金が主に焦点を当ててきた、伝統的に保護された非差別法のカテゴリーを越えていることを示している。
むしろ、競争法と知的財産法から知られているFRAND基準に基づいて、公正なランク付けに関するDMA規定を解釈し、洗練する。
さらに,cjeu法学に基づいて,従来の非差別法と競争法の両方における非差別概念の一貫性のある解釈を見いだせることを示す。
最後のパートでは、DMA以降における透明性、アクセス、公平性の包括的なフレームワークに関する具体的な提案をスケッチしている。
関連論文リスト
- On Algorithmic Fairness and the EU Regulations [0.2538209532048867]
論文は、欧州連合(EU)における非差別と重要な法律に焦点を当てたアルゴリズム的公正性について議論する
人工知能(AI)に関するEUの差別に関する議論
論文は、ソフトウェア工学におけるコンプライアンスの研究領域を拡大し、強化するいくつかの法的洞察をもって、アルゴリズムフェアネス研究に貢献する。
論文 参考訳(メタデータ) (2024-11-13T06:23:54Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a Flexible Framework for Algorithmic Fairness [0.8379286663107844]
近年、アルゴリズム決定システムにおける非差別性を保証するための多くの異なる定義が提案されている。
本稿では, 最適な輸送手段を利用して, フェアネス定義の相違を補間するフレキシブルな枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-15T16:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。