論文の概要: Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts
- arxiv url: http://arxiv.org/abs/2504.16139v1
- Date: Tue, 22 Apr 2025 00:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.867177
- Title: Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts
- Title(参考訳): 標準による信頼の強化:グローバル倫理的・規制的文脈によるISO AI標準の調整のための比較リスク対応フレームワーク
- Authors: Sridharan Sankaran,
- Abstract要約: ISO標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
それらの効果は、EUのリスクベースのAI法から中国の安定性にフォーカスした措置まで、さまざまな規制の状況によって異なる。
本稿では,ISO標準がいかに倫理的リスクに対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) reshapes industries and societies, ensuring its trustworthiness-through mitigating ethical risks like bias, opacity, and accountability deficits-remains a global challenge. International Organization for Standardization (ISO) AI standards, such as ISO/IEC 24027 and 24368, aim to foster responsible development by embedding fairness, transparency, and risk management into AI systems. However, their effectiveness varies across diverse regulatory landscapes, from the EU's risk-based AI Act to China's stability-focused measures and the U.S.'s fragmented state-led initiatives. This paper introduces a novel Comparative Risk-Impact Assessment Framework to evaluate how well ISO standards address ethical risks within these contexts, proposing enhancements to strengthen their global applicability. By mapping ISO standards to the EU AI Act and surveying regulatory frameworks in ten regions-including the UK, Canada, India, Japan, Singapore, South Korea, and Brazil-we establish a baseline for ethical alignment. The framework, applied to case studies in the EU, US-Colorado, and China, reveals gaps: voluntary ISO standards falter in enforcement (e.g., Colorado) and undervalue region-specific risks like privacy (China). We recommend mandatory risk audits, region-specific annexes, and a privacy-focused module to enhance ISO's adaptability. This approach not only synthesizes global trends but also offers a replicable tool for aligning standardization with ethical imperatives, fostering interoperability and trust in AI worldwide. Policymakers and standards bodies can leverage these insights to evolve AI governance, ensuring it meets diverse societal needs as the technology advances.
- Abstract(参考訳): 人工知能(AI)が産業や社会を安心させ、偏見、不透明感、説明責任の欠陥といった倫理的リスクを緩和することで信頼性を確保することは、世界的課題である。
ISO/IEC 24027や24368のような国際標準化のためのAI標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
しかし、それらの効果は、EUのリスクベースのAI法から中国の安定性を重視した措置、米国の断片化された国家主導のイニシアチブなど、様々な規制の状況によって異なる。
本稿は,ISO標準がこれらの文脈における倫理的リスクにどの程度うまく対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
ISO標準をEU AI法にマッピングし、英国、カナダ、インド、日本、シンガポール、韓国、ブラジルを含む10の地域における規制枠組みを調査することで、倫理的整合性の基準を確立します。
このフレームワークは、EU、米国、中国におけるケーススタディに適用され、自主的なISO標準が施行され(コロラド州など)、プライバシー(中国)のような地域固有のリスクが過小評価されている。
われわれは、ISOの適応性を高めるため、リスク監査、地域固有のアタッチメント、プライバシを重視したモジュールを推奨する。
このアプローチはグローバルなトレンドを合成するだけでなく、標準化を倫理的命令と整合させ、相互運用性を促進し、世界中のAIを信頼するための、レプリカ可能なツールも提供する。
政策立案者や標準機関は、これらの洞察を活用してAIガバナンスを進化させ、技術が進歩するにつれて、様々な社会的ニーズを満たすことを保証する。
関連論文リスト
- Towards Adaptive AI Governance: Comparative Insights from the U.S., EU, and Asia [0.0]
本研究は、米国(米国)、欧州連合(EU)、アジアにおけるAIトレンドの比較分析を行う。
生成AI、倫理的監視、産業応用の3つの重要な側面に焦点を当てている。
米国は最小限の規制制約で市場主導のイノベーションを優先し、EUは倫理的保護を強調する予防的リスクベースのフレームワークを施行し、アジアは規制の監督と迅速な展開のバランスをとる国家主導のAI戦略を採用している。
論文 参考訳(メタデータ) (2025-04-01T11:05:47Z) - HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - Between Innovation and Oversight: A Cross-Regional Study of AI Risk Management Frameworks in the EU, U.S., UK, and China [0.0]
本稿では、欧州連合、米国、英国(イギリス)、中国におけるAIリスク管理戦略の比較分析を行う。
この結果は、EUが透明性と適合性の評価を優先する構造化されたリスクベースの枠組みを実装していることを示している。
米国は、イノベーションを促進するが、断片化された執行につながる可能性のある、分権化されたセクター固有の規制を使用している。
論文 参考訳(メタデータ) (2025-02-25T18:52:17Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。