論文の概要: Bridging the Global Divide in AI Regulation: A Proposal for a
Contextual, Coherent, and Commensurable Framework
- arxiv url: http://arxiv.org/abs/2303.11196v4
- Date: Sun, 25 Feb 2024 07:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 19:35:36.690048
- Title: Bridging the Global Divide in AI Regulation: A Proposal for a
Contextual, Coherent, and Commensurable Framework
- Title(参考訳): AI規制におけるグローバルディバイドのブリッジ: コンテキスト、一貫性、快適なフレームワークの提案
- Authors: Sangchul Park
- Abstract要約: 本稿では,様々な管轄区域におけるAI規制の現況について考察する。
グローバルな分断を橋渡しする代替の文脈的、一貫性があり、包括的(3C)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.9622882291833615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines the current landscape of AI regulations across various
jurisdictions, highlighting divergent approaches being taken, and proposes an
alternative contextual, coherent, and commensurable (3C) framework to bridge
the global divide. While the U.N. is developing an international AI governance
framework and the G7 has endorsed a risk-based approach, there is no consensus
on their details. The EU, Canada, and Brazil (and potentially South Korea)
follow a horizontal or lateral approach that postulates the homogeneity of AI,
seeks to identify common causes of harm, and demands uniform human
interventions. In contrast, the U.S., the U.K., Israel, and Switzerland (and
potentially China) have pursued a context-specific or modular approach,
tailoring regulations to the specific use cases of AI systems. Horizonal
approaches like the EU AI Act do not guarantee sufficient levels of
proportionality and foreseeability; rather, this approach imposes a
one-size-fits-all bundle of regulations on any high-risk AI, when feasible, to
differentiate between various AI models and legislate them individually. The
context-specific approach holds greater promise, but requires further
development regarding details, coherent regulatory objectives, and
commensurable standards. To strike a balance, this paper proposes a hybrid 3C
framework. To ensure contextuality, the framework bifurcates the AI life cycle
into two phases: learning and utilization for specific tasks; and categorizes
these tasks based on their application and interaction with humans as follows:
autonomous, discriminative (allocative, punitive, and cognitive), and
generative AI. To ensure coherency, each category is assigned regulatory
objectives. To ensure commensurability, the framework promotes the adoption of
international industry standards that convert principles into quantifiable
metrics to be readily integrated into AI systems.
- Abstract(参考訳): 本稿では,様々な分野にわたるAI規制の現況を考察し,異なるアプローチが取られることを強調し,グローバルな分断を橋渡しするための文脈的・一貫性的・包括的(3C)フレームワークを提案する。
国連は国際的なAIガバナンスフレームワークを開発しており、G7はリスクベースのアプローチを支持しているが、詳細については合意していない。
EU、カナダ、ブラジル(そしておそらく韓国)は、AIの均質性を仮定する水平方向または横方向のアプローチに従い、共通の害原因を特定し、統一的な人間の介入を要求する。
それとは対照的に、米国、英国、イスラエル、スイス(そしておそらく中国)は、AIシステムの特定のユースケースに合わせたコンテキスト特化またはモジュラーアプローチを追求している。
EU AI Actのような水平的アプローチは、十分な比例性と予測可能性を保証するものではない。このアプローチは、さまざまなAIモデルを区別し、個別に合法化するために、高リスクなAIに対して、一大の規則を課している。
文脈固有のアプローチは、より大きな約束を持っているが、詳細、一貫性のある規制目標、および包含可能な標準に関するさらなる開発が必要である。
バランスを取るため,本稿ではハイブリッド3cフレームワークを提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを2段階に分け、特定のタスクの学習と利用、そしてこれらのタスクを応用と人間との相互作用に基づいて分類する。
一貫性を確保するために、各カテゴリには規制目標が割り当てられる。
コンメンサビリティを確保するため、このフレームワークは、原則を定量的なメトリクスに変換してAIシステムに容易に統合する国際業界標準の採用を促進する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - The Dilemma of Uncertainty Estimation for General Purpose AI in the EU AI Act [6.9060054915724]
AI法は、欧州連合全体のAIシステムの規制である。
我々は、不確実性推定が、実世界でモデルをデプロイするために必要なコンポーネントであるべきだと論じる。
論文 参考訳(メタデータ) (2024-08-20T23:59:51Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。