論文の概要: Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation
- arxiv url: http://arxiv.org/abs/2505.13673v1
- Date: Mon, 19 May 2025 19:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.497265
- Title: Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation
- Title(参考訳): アップルとオレンジの比較:AI規制のグローバルランドスケープをナビゲートする分類学
- Authors: Sacha Alanoca, Shira Gur-Arieh, Tom Zick, Kevin Klyman,
- Abstract要約: 我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI governance has transitioned from soft law-such as national AI strategies and voluntary guidelines-to binding regulation at an unprecedented pace. This evolution has produced a complex legislative landscape: blurred definitions of "AI regulation" mislead the public and create a false sense of safety; divergent regulatory frameworks risk fragmenting international cooperation; and uneven access to key information heightens the danger of regulatory capture. Clarifying the scope and substance of AI regulation is vital to uphold democratic rights and align international AI efforts. We present a taxonomy to map the global landscape of AI regulation. Our framework targets essential metrics-technology or application-focused rules, horizontal or sectoral regulatory coverage, ex ante or ex post interventions, maturity of the digital legal landscape, enforcement mechanisms, and level of stakeholder participation-to classify the breadth and depth of AI regulation. We apply this framework to five early movers: the European Union's AI Act, the United States' Executive Order 14110, Canada's AI and Data Act, China's Interim Measures for Generative AI Services, and Brazil's AI Bill 2338/2023. We further offer an interactive visualization that distills these dense legal texts into accessible insights, highlighting both commonalities and differences. By delineating what qualifies as AI regulation and clarifying each jurisdiction's approach, our taxonomy reduces legal uncertainty, supports evidence-based policymaking, and lays the groundwork for more inclusive, globally coordinated AI governance.
- Abstract(参考訳): AIガバナンスは、国家AI戦略や自発的ガイドラインのようなソフトな法律から、前例のないペースで拘束規制へと移行してきた。
この進化は複雑な立法の展望を生み出した: 「AI規制」という曖昧な定義が大衆を誤解させ、安全の誤った感覚を生み出し、異なる規制枠組みが国際協力を断片化するリスクを冒し、重要な情報へのアクセスが不均一にし、規制の捕獲の危険性を高める。
AI規制の範囲と内容を明確にすることは、民主的権利を擁護し、国際的AI活動を調整するために不可欠である。
我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
我々のフレームワークは、重要なメトリクス技術やアプリケーション中心のルール、水平またはセクターの規制範囲、前者または後者の介入、デジタル法的景観の成熟度、執行機構、利害関係者の参加レベルを目標とし、AI規制の幅と深さを分類する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
さらに、これらの密集した法律文書を、アクセス可能な洞察へと蒸留するインタラクティブな可視化を提供し、共通点と相違点の両方を強調します。
AI規制を規定し、各管轄区域のアプローチを明確にすることで、我々の分類は法的不確実性を減らし、エビデンスに基づく政策決定をサポートし、より包括的でグローバルに調整されたAIガバナンスの基盤を築き上げます。
関連論文リスト
- Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EUのAI法は、具体的な執行措置による世界最初の国際的AI規制である。
製品健康と安全の規制のための既存のEU機構を基盤としているが、基本的権利を保護するために拡張されている。
これらの拡張は、AIシステムの認証と執行活動に対して、その技術の技術的な状態がどのように適用されるかという点で不確実性を導入する。
これらの不確実性は、AIの急速に変化する性質と、基本的権利リスク管理における技術状態の相対的な未成熟さと相まって、包括的で迅速な規制学習に強く重点を置くために、AI法の実装を必要としている、と我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。