論文の概要: The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market
- arxiv url: http://arxiv.org/abs/2208.12645v1
- Date: Tue, 23 Aug 2022 20:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:03:43.671774
- Title: The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market
- Title(参考訳): ブリュッセル効果と人工知能:EU規制が世界AI市場にどのように影響するか
- Authors: Charlotte Siegmann and Markus Anderljung
- Abstract要約: 私たちは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生まれるかどうか尋ねる。
我々は、EUのAI規制が非EU諸国で提供される製品の変更にインセンティブを与える可能性の両方を考慮する。
デファクト効果は、AI法が「ハイリスク」と表現しているAIシステムを持つ米国大手テック企業において特に生じる可能性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union is likely to introduce among the first, most stringent,
and most comprehensive AI regulatory regimes of the world's major
jurisdictions. In this report, we ask whether the EU's upcoming regulation for
AI will diffuse globally, producing a so-called "Brussels Effect". Building on
and extending Anu Bradford's work, we outline the mechanisms by which such
regulatory diffusion may occur. We consider both the possibility that the EU's
AI regulation will incentivise changes in products offered in non-EU countries
(a de facto Brussels Effect) and the possibility it will influence regulation
adopted by other jurisdictions (a de jure Brussels Effect). Focusing on the
proposed EU AI Act, we tentatively conclude that both de facto and de jure
Brussels effects are likely for parts of the EU regulatory regime. A de facto
effect is particularly likely to arise in large US tech companies with AI
systems that the AI Act terms "high-risk". We argue that the upcoming
regulation might be particularly important in offering the first and most
influential operationalisation of what it means to develop and deploy
trustworthy or human-centred AI. If the EU regime is likely to see significant
diffusion, ensuring it is well-designed becomes a matter of global importance.
- Abstract(参考訳): 欧州連合(EU)は、世界の主要司法機関の最初の、最も厳格で、最も包括的なAI規制体制を導入する可能性が高い。
このレポートでは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生み出されるかどうかを問う。
アヌ・ブラッドフォードの研究を基盤とし、拡張し、このような規制拡散が起こるメカニズムを概説する。
我々は、EUのAI規制が非EU諸国(事実上のブリュッセル効果)で提供される製品の変更にインセンティブを与える可能性と、他の司法管轄区域(ブリュッセル効果)で採用される規制に影響を与える可能性の両方を考慮する。
提案されたEU AI法に焦点をあてて、デファクト効果とデジュア・ブリュッセル効果は、EUの規制体制の一部に当てはまると仮に結論づける。
デファクト効果は、AI法が「ハイリスク」と表現するAIシステムを持つ米国の大手テック企業で特に発生する可能性が高い。
今後の規制は、信頼できるAIや人間中心のAIを開発し展開することの意味の最初の、そして最も影響力のある運用を提供する上で、特に重要だ、と私たちは主張する。
欧州連合(EU)の体制が大幅に拡散するとすれば、十分に設計されていることが世界的重要性の問題となる。
関連論文リスト
- Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The ghost of AI governance past, present and future: AI governance in
the European Union [0.0]
EUは倫理的、信頼できる技術開発を保証し、奨励している。
第1節は、EUのAIガバナンスに対する一貫性と包括的アプローチを探求し、実証する役割を果たしている。
第2節は、規制とインフラのレンズを通して、EUのデジタル主権への推進を図示している。
第3節は、EUにおける優れたAIガバナンスを達成するためのいくつかの考慮を提供することで締めくくっている。
論文 参考訳(メタデータ) (2021-07-08T08:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。