論文の概要: First Analysis of the EU Artifical Intelligence Act: Towards a Global Standard for Trustworthy AI?
- arxiv url: http://arxiv.org/abs/2408.08318v1
- Date: Wed, 31 Jul 2024 12:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-25 14:30:57.236741
- Title: First Analysis of the EU Artifical Intelligence Act: Towards a Global Standard for Trustworthy AI?
- Title(参考訳): EUアーティフィカルインテリジェンス法の最初の分析 : 信頼できるAIのグローバル標準に向けて
- Authors: Marion Ho-Dac,
- Abstract要約: EU人工知能法は2024年8月1日に欧州連合(EU)で施行された。
これは、AI技術の中心にいる市民と、業界内で活動している業界の両方にとって、重要な法律の1つだ。
この法律は、水平かつ拘束力のある規制の範囲において、国際規模では前例がないが、信頼できるAIを支持するという世界的魅力は、その大きな課題の1つだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The EU Artificial Intelligence Act (AI Act) came into force in the European Union (EU) on 1 August 2024. It is a key piece of legislation both for the citizens at the heart of AI technologies and for the industry active in the internal market. The AI Act imposes progressive compliance on organisations - both private and public - involved in the global value chain of AI systems and models marketed and used in the EU. While the Act is unprecedented on an international scale in terms of its horizontal and binding regulatory scope, its global appeal in support of trustworthy AI is one of its major challenges.
- Abstract(参考訳): EU人工知能法は2024年8月1日に欧州連合(EU)で施行された。
これは、AI技術の中心にいる市民と、業界内で活動している業界の両方にとって、重要な法律の1つだ。
AI法は、EUで販売および使用されているAIシステムとモデルのグローバルバリューチェーンに関わる組織(民間と公の両方)に対して、進歩的なコンプライアンスを課している。
この法律は、水平かつ拘束力のある規制の範囲において、国際規模では前例がないが、信頼できるAIを支持するという世界的魅力は、その大きな課題の1つだ。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The European Commitment to Human-Centered Technology: The Integral Role of HCI in the EU AI Act's Success [4.202570851109354]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - The Brussels Effect and Artificial Intelligence: How EU regulation will
impact the global AI market [0.0]
私たちは、EUの今後のAI規制が世界中に拡散し、いわゆる「ブルッセル効果」が生まれるかどうか尋ねる。
我々は、EUのAI規制が非EU諸国で提供される製品の変更にインセンティブを与える可能性の両方を考慮する。
デファクト効果は、AI法が「ハイリスク」と表現しているAIシステムを持つ米国大手テック企業において特に生じる可能性が高い。
論文 参考訳(メタデータ) (2022-08-23T20:23:22Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The ghost of AI governance past, present and future: AI governance in
the European Union [0.0]
EUは倫理的、信頼できる技術開発を保証し、奨励している。
第1節は、EUのAIガバナンスに対する一貫性と包括的アプローチを探求し、実証する役割を果たしている。
第2節は、規制とインフラのレンズを通して、EUのデジタル主権への推進を図示している。
第3節は、EUにおける優れたAIガバナンスを達成するためのいくつかの考慮を提供することで締めくくっている。
論文 参考訳(メタデータ) (2021-07-08T08:43:16Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。