論文の概要: Bridging the Global Divide in AI Regulation: A Proposal for a
Contextual, Coherent, and Commensurable Framework
- arxiv url: http://arxiv.org/abs/2303.11196v3
- Date: Tue, 5 Sep 2023 02:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:04:27.111360
- Title: Bridging the Global Divide in AI Regulation: A Proposal for a
Contextual, Coherent, and Commensurable Framework
- Title(参考訳): AI規制におけるグローバルディバイドのブリッジ: コンテキスト、一貫性、快適なフレームワークの提案
- Authors: Sangchul Park
- Abstract要約: EU、カナダ、韓国、ブラジルは、AIシステムの均一性を仮定する水平方向または横方向のアプローチに従っている。
イギリス、イスラエル、スイス、日本、中国は、文脈固有の、あるいはモジュラーなアプローチを追求している。
このようなAI規制の断片化に対処することは、AIの相互運用性を保証するために不可欠である。
- 参考スコア(独自算出の注目度): 0.9622882291833615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines the current landscape of AI regulations, highlighting the
divergent approaches being taken, and proposes an alternative contextual,
coherent, and commensurable (3C) framework. The EU, Canada, South Korea, and
Brazil follow a horizontal or lateral approach that postulates the homogeneity
of AI systems, seeks to identify common causes of harm, and demands uniform
human interventions. In contrast, the U.K., Israel, Switzerland, Japan, and
China have pursued a context-specific or modular approach, tailoring
regulations to the specific use cases of AI systems. The U.S. is reevaluating
its strategy, with growing support for controlling existential risks associated
with AI. Addressing such fragmentation of AI regulations is crucial to ensure
the interoperability of AI. The present degree of proportionality, granularity,
and foreseeability of the EU AI Act is not sufficient to garner consensus. The
context-specific approach holds greater promises but requires further
development in terms of details, coherency, and commensurability. To strike a
balance, this paper proposes a hybrid 3C framework. To ensure contextuality,
the framework categorizes AI into distinct types based on their usage and
interaction with humans: autonomous, allocative, punitive, cognitive, and
generative AI. To ensure coherency, each category is assigned specific
regulatory objectives: safety for autonomous AI; fairness and explainability
for allocative AI; accuracy and explainability for punitive AI; accuracy,
robustness, and privacy for cognitive AI; and the mitigation of infringement
and misuse for generative AI. To ensure commensurability, the framework
promotes the adoption of international industry standards that convert
principles into quantifiable metrics. In doing so, the framework is expected to
foster international collaboration and standardization without imposing
excessive compliance costs.
- Abstract(参考訳): 本稿では,AI規制の現況を概観し,異なるアプローチが講じられていることを強調し,文脈的,一貫性,快適な3Cフレームワークを提案する。
EU、カナダ、韓国、ブラジルは、AIシステムの均質性を仮定する水平方向または横方向のアプローチに従い、共通の害原因を特定し、統一的な人間の介入を要求する。
対照的に、英国、イスラエル、スイス、日本、中国は、aiシステムの特定のユースケースに規制を合わせた、コンテキスト固有の、あるいはモジュラーなアプローチを追求している。
米国は戦略を再評価し、AIに関連する現実的なリスクを制御するためのサポートを拡大している。
このようなAI規制の断片化に対処することは、AIの相互運用性を保証するために不可欠である。
EU AI法における現在の比例、粒度、および予測可能性の程度は、合意を得るには不十分である。
コンテキスト固有のアプローチは、より多くの約束を持っていますが、詳細、一貫性、および可測性の観点からさらなる開発が必要です。
バランスを取るため,本稿ではハイブリッド3cフレームワークを提案する。
文脈性を確保するため、このフレームワークはAIを、自律的、割当的、刺激的、認知的、生成的AIという、その使用と人間との相互作用に基づいて、異なるタイプに分類する。
一貫性を確保するために、各カテゴリには、自律AIの安全性、割当AIの公正性と説明性、罰的AIの正確性と説明性、認知AIの正確性、堅牢性、プライバシ、生成AIの侵害と誤用の軽減といった、特定の規制目標が割り当てられている。
コンメンサビリティを確保するため、このフレームワークは原則を定量化メトリクスに変換する国際業界標準の採用を促進する。
そうすることで、過度のコンプライアンスコストを伴わずに、国際協力と標準化を促進することが期待される。
関連論文リスト
- Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Resolving Ethics Trade-offs in Implementing Responsible AI [18.894725256708128]
初歩的なものから複雑なものまで、トレードオフを通じて緊張に対処するための5つのアプローチをカバーします。
いずれのアプローチも、すべての組織、システム、アプリケーションに適していない可能性が高い。
i)緊張の積極的な識別、(ii)倫理的側面の優先順位付けと重み付け、(iii)トレードオフ決定の正当化と文書化からなる枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-16T04:14:23Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。