論文の概要: The Artificial Intelligence Act: critical overview
- arxiv url: http://arxiv.org/abs/2409.00264v1
- Date: Fri, 30 Aug 2024 21:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 16:02:27.214262
- Title: The Artificial Intelligence Act: critical overview
- Title(参考訳): 人工知能法の概要
- Authors: Nuno Sousa e Silva,
- Abstract要約: この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article provides a critical overview of the recently approved Artificial Intelligence Act. It starts by presenting the main structure, objectives, and approach of Regulation (EU) 2024/1689. A definition of key concepts follows, and then the material and territorial scope, as well as the timing of application, are analyzed. Although the Regulation does not explicitly set out principles, the main ideas of fairness, accountability, transparency, and equity in AI underly a set of rules of the regulation. This is discussed before looking at the ill-defined set of forbidden AI practices (manipulation and e exploitation of vulnerabilities, social scoring, biometric identification and classification, and predictive policing). It is highlighted that those rules deal with behaviors rather than AI systems. The qualification and regulation of high-risk AI systems are tackled, alongside the obligation of transparency for certain systems, the regulation of general-purpose models, and the rules on certification, supervision, and sanctions. The text concludes that even if the overall framework can be deemed adequate and balanced, the approach is so complex that it risks defeating its own purpose of promoting responsible innovation within the European Union and beyond its borders.
- Abstract(参考訳): この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
鍵となる概念の定義が従うと、材料と領域の範囲、および適用のタイミングが分析される。
規則は明確に原則を定めていないが、公正性、説明責任、透明性、およびAIにおける株式の主な考え方は、規制の一連の規則である。
これは、未定義の禁止されたAIプラクティスのセット(脆弱性の操作とe活用、社会的スコアリング、生体認証と分類、予測警察)を調べる前に議論される。
これらのルールがAIシステムよりも行動を扱うことが強調されている。
リスクの高いAIシステムの資格と規制は、特定のシステムに対する透明性の義務、汎用モデルの規制、認証、監督、制裁に関する規則とともに取り組まれている。
このテキストは、たとえ全体フレームワークが適切かつバランスが取れたとしても、そのアプローチは非常に複雑であり、欧州連合内および国境を越えて責任あるイノベーションを促進するという自身の目的を破るリスクがある、と結論付けている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。