論文の概要: The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market
- arxiv url: http://arxiv.org/abs/2208.12645v1
- Date: Tue, 23 Aug 2022 20:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:03:43.671774
- Title: The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market
- Title(参考訳): ブリュッセル効果と人工知能:EU規制が世界AI市場にどのように影響するか
- Authors: Charlotte Siegmann and Markus Anderljung
- Abstract要約: 私たちは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生まれるかどうか尋ねる。
我々は、EUのAI規制が非EU諸国で提供される製品の変更にインセンティブを与える可能性の両方を考慮する。
デファクト効果は、AI法が「ハイリスク」と表現しているAIシステムを持つ米国大手テック企業において特に生じる可能性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union is likely to introduce among the first, most stringent,
and most comprehensive AI regulatory regimes of the world's major
jurisdictions. In this report, we ask whether the EU's upcoming regulation for
AI will diffuse globally, producing a so-called "Brussels Effect". Building on
and extending Anu Bradford's work, we outline the mechanisms by which such
regulatory diffusion may occur. We consider both the possibility that the EU's
AI regulation will incentivise changes in products offered in non-EU countries
(a de facto Brussels Effect) and the possibility it will influence regulation
adopted by other jurisdictions (a de jure Brussels Effect). Focusing on the
proposed EU AI Act, we tentatively conclude that both de facto and de jure
Brussels effects are likely for parts of the EU regulatory regime. A de facto
effect is particularly likely to arise in large US tech companies with AI
systems that the AI Act terms "high-risk". We argue that the upcoming
regulation might be particularly important in offering the first and most
influential operationalisation of what it means to develop and deploy
trustworthy or human-centred AI. If the EU regime is likely to see significant
diffusion, ensuring it is well-designed becomes a matter of global importance.
- Abstract(参考訳): 欧州連合(EU)は、世界の主要司法機関の最初の、最も厳格で、最も包括的なAI規制体制を導入する可能性が高い。
このレポートでは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生み出されるかどうかを問う。
アヌ・ブラッドフォードの研究を基盤とし、拡張し、このような規制拡散が起こるメカニズムを概説する。
我々は、EUのAI規制が非EU諸国(事実上のブリュッセル効果)で提供される製品の変更にインセンティブを与える可能性と、他の司法管轄区域(ブリュッセル効果)で採用される規制に影響を与える可能性の両方を考慮する。
提案されたEU AI法に焦点をあてて、デファクト効果とデジュア・ブリュッセル効果は、EUの規制体制の一部に当てはまると仮に結論づける。
デファクト効果は、AI法が「ハイリスク」と表現するAIシステムを持つ米国の大手テック企業で特に発生する可能性が高い。
今後の規制は、信頼できるAIや人間中心のAIを開発し展開することの意味の最初の、そして最も影響力のある運用を提供する上で、特に重要だ、と私たちは主張する。
欧州連合(EU)の体制が大幅に拡散するとすれば、十分に設計されていることが世界的重要性の問題となる。
関連論文リスト
- From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate [69.05573887799203]
この議論の多くは、大きな間接効果に対処することなく直接的影響に集中している。
本稿では,Jevonsのパラドックス問題がどのようにAIに適用され,効率向上がパラドックス的に消費増加を促すかを検討する。
これらの2次の影響を理解するには、ライフサイクルアセスメントと社会経済分析を組み合わせた学際的アプローチが必要であると論じる。
論文 参考訳(メタデータ) (2025-01-27T22:45:06Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - First Analysis of the EU Artifical Intelligence Act: Towards a Global Standard for Trustworthy AI? [0.0]
EU人工知能法は2024年8月1日に欧州連合(EU)で施行された。
これは、AI技術の中心にいる市民と、業界内で活動している業界の両方にとって、重要な法律の1つだ。
この法律は、水平かつ拘束力のある規制の範囲において、国際規模では前例がないが、信頼できるAIを支持するという世界的魅力は、その大きな課題の1つだ。
論文 参考訳(メタデータ) (2024-07-31T12:16:03Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。