論文の概要: Interoperability in AI Safety Governance: Ethics, Regulations, and Standards
- arxiv url: http://arxiv.org/abs/2601.06153v1
- Date: Tue, 06 Jan 2026 05:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.61968
- Title: Interoperability in AI Safety Governance: Ethics, Regulations, and Standards
- Title(参考訳): AI安全ガバナンスにおける相互運用性 - 倫理、規制、標準
- Authors: Yik Chan Chin, David A. Raho, Hag-Min Kim, Chunli Bi, James Ong, Jingbo Huang, Serge Stinckwich,
- Abstract要約: この政策報告書は、中国、大韓民国、シンガポール、イギリスからの国学を参考にしている。
AIの安全性管理における相互運用性に対する効果的なツールと重要な障壁を特定します。
グローバルに情報提供されながらローカルに根ざしたガバナンスエコシステムをサポートするために、実践的なレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This policy report draws on country studies from China, South Korea, Singapore, and the United Kingdom to identify effective tools and key barriers to interoperability in AI safety governance. It offers practical recommendations to support a globally informed yet locally grounded governance ecosystem. Interoperability is a central goal of AI governance, vital for reducing risks, fostering innovation, enhancing competitiveness, promoting standardization, and building public trust. However, structural gaps such as fragmented regulations and lack of global coordination, and conceptual gaps, including limited Global South engagement, continue to hinder progress. Focusing on three high-stakes domains - autonomous vehicles, education, and cross-border data flows - the report compares ethical, legal, and technical frameworks across the four countries. It identifies areas of convergence, divergence, and potential alignment, offering policy recommendations that support the development of interoperability mechanisms aligned with the Global Digital Compact and relevant UN resolutions. The analysis covers seven components: objectives, regulators, ethics, binding measures, targeted frameworks, technical standards, and key risks.
- Abstract(参考訳): この政策報告書は、中国、韓国、シンガポール、英国からの国学を参考にして、AIの安全管理における相互運用性に対する効果的なツールと重要な障壁を特定している。
グローバルに情報提供されながらローカルに根ざしたガバナンスエコシステムをサポートするために、実践的なレコメンデーションを提供する。
相互運用性は、AIガバナンスの中心的な目標であり、リスクの低減、イノベーションの促進、競争力の向上、標準化の促進、公的信頼の構築に不可欠である。
しかし、断片化された規制やグローバルコーディネーションの欠如といった構造的ギャップや、グローバル・サウス・エンゲージメントの制限を含む概念的ギャップは、進歩を妨げ続けている。
自動運転車、教育、国境を越えたデータフローの3つの高い領域に焦点を当てた報告書は、4つの国における倫理的、法的、技術的な枠組みを比較している。
グローバルデジタルコンパクトと関連する国連決議に沿った相互運用機構の開発を支援する政策レコメンデーションを提供する。
この分析は、目的、規制、倫理、拘束力、標的となるフレームワーク、技術標準、主要なリスクの7つの要素を含む。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Trustworthiness of Legal Considerations for the Use of LLMs in Education [0.0]
本稿では、主要なグローバルリージョンにおけるAI関連規制および倫理的枠組みの比較分析を行う。
透明性、公正性、説明責任、データプライバシ、人間の監視といった中核的な信頼性原則が、地域法やAIガバナンス構造にどのように埋め込まれているのかをマップします。
この論文は、教育における法的に健全で倫理的基盤があり、文化的に敏感なAIシステムを構築するための実践的なガイダンスに貢献する。
論文 参考訳(メタデータ) (2025-08-05T07:44:33Z) - AI Governance in the GCC States: A Comparative Analysis of National AI Strategies [0.0]
湾岸協力評議会(GCC)は、経済の多様化とサービスの強化を促進するために人工知能(AI)をますます採用している。
本稿では、アラブ首長国連邦、サウジアラビア、カタール、オマーン、バーレーン、クウェートの6カ国にわたるAIガバナンスの展開状況について検討する。
発見は、規制を拘束するのではなく、国家戦略と倫理原則を強調する「ソフトレギュレーション」アプローチを強調している。
論文 参考訳(メタデータ) (2025-05-04T16:25:52Z) - Towards Adaptive AI Governance: Comparative Insights from the U.S., EU, and Asia [0.0]
本研究は、米国(米国)、欧州連合(EU)、アジアにおけるAIトレンドの比較分析を行う。
生成AI、倫理的監視、産業応用の3つの重要な側面に焦点を当てている。
米国は最小限の規制制約で市場主導のイノベーションを優先し、EUは倫理的保護を強調する予防的リスクベースのフレームワークを施行し、アジアは規制の監督と迅速な展開のバランスをとる国家主導のAI戦略を採用している。
論文 参考訳(メタデータ) (2025-04-01T11:05:47Z) - Between Innovation and Oversight: A Cross-Regional Study of AI Risk Management Frameworks in the EU, U.S., UK, and China [0.0]
本稿では、欧州連合、米国、英国(イギリス)、中国におけるAIリスク管理戦略の比較分析を行う。
この結果は、EUが透明性と適合性の評価を優先する構造化されたリスクベースの枠組みを実装していることを示している。
米国は、イノベーションを促進するが、断片化された執行につながる可能性のある、分権化されたセクター固有の規制を使用している。
論文 参考訳(メタデータ) (2025-02-25T18:52:17Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。