論文の概要: An Assessment of the AI Regulation Proposed by the European Commission
- arxiv url: http://arxiv.org/abs/2105.15133v1
- Date: Wed, 26 May 2021 20:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 09:09:16.843741
- Title: An Assessment of the AI Regulation Proposed by the European Commission
- Title(参考訳): 欧州委員会によるAI規制の評価
- Authors: Patrick Glauner
- Abstract要約: 既存の規制のため、提案された規制は実際には不要であることを示す。
これにより、医療などの安全クリティカルなアプリケーション分野でのAIアプリケーションの使用や開発が、EUではほぼ不可能になる。
我々の評価は、2021年5月にドイツ連邦議会とフランス国民議会の欧州連合事務委員会の合同会期で行った口頭証拠に基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In April 2021, the European Commission published a proposed regulation on AI.
It intends to create a uniform legal framework for AI within the European Union
(EU). In this chapter, we analyze and assess the proposal. We show that the
proposed regulation is actually not needed due to existing regulations. We also
argue that the proposal clearly poses the risk of overregulation. As a
consequence, this would make the use or development of AI applications in
safety-critical application areas, such as in healthcare, almost impossible in
the EU. This would also likely further strengthen Chinese and US corporations
in their technology leadership. Our assessment is based on the oral evidence we
gave in May 2021 to the joint session of the European Union affairs committees
of the German federal parliament and the French National Assembly.
- Abstract(参考訳): 2021年4月、欧州委員会はAIに関する規制案を発表した。
欧州連合(EU)内でAIの統一的な法的枠組みを構築することを目指している。
この章では、提案を分析し、評価する。
既存の規制により、実際に提案された規制は不要であることを示す。
また、この提案は明らかに過剰規制のリスクをもたらすと主張している。
その結果、医療などの安全クリティカルなアプリケーション分野におけるAIアプリケーションの使用や開発が、EUではほぼ不可能になる。
これはまた、中国やアメリカの企業をテクノロジーのリーダーシップで強化する可能性も高い。
我々の評価は2021年5月にドイツ連邦議会とフランス国民議会の欧州連合事務委員会合同会に提示した口頭証拠に基づいている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - A Robust Governance for the AI Act: AI Office, AI Board, Scientific Panel, and National Authorities [2.6517270606061203]
EUの新しい人工知能法(AIA)は、様々な機関によってどのように実施され、施行されるかを説明する。
規則的なガバナンスモデルを提案し、AIAの均一かつ協調的な実行を保証するための勧告を提供する。
欧州連合の規制が制度構造や運営にどのように影響するかを強調し、超国家的、国家的レベルの役割について調査している。
論文 参考訳(メタデータ) (2024-05-11T09:22:16Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market [0.0]
私たちは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生まれるかどうか尋ねる。
我々は、EUのAI規制が非EU諸国で提供される製品の変更にインセンティブを与える可能性の両方を考慮する。
デファクト効果は、AI法が「ハイリスク」と表現しているAIシステムを持つ米国大手テック企業において特に生じる可能性が高い。
論文 参考訳(メタデータ) (2022-08-23T20:23:22Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Demystifying the Draft EU Artificial Intelligence Act [5.787117733071415]
2021年4月、欧州委員会はAI法として知られる人工知能に関する規則を提案した。
我々は、この法律の概要と、その意味を分析し、現代のAI実践の研究から、過去40年間のEU製品安全体制の構造まで幅広い奨学金について考察する。
ドラフトAI法のいくつかの規定は、驚くべき法的意味を持つが、他の条項は、規定された目標を達成するのにほとんど効果がないかもしれない。
論文 参考訳(メタデータ) (2021-07-08T10:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。