論文の概要: A five-layer framework for AI governance: integrating regulation, standards, and certification
- arxiv url: http://arxiv.org/abs/2509.11332v1
- Date: Sun, 14 Sep 2025 16:19:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.033253
- Title: A five-layer framework for AI governance: integrating regulation, standards, and certification
- Title(参考訳): AIガバナンスのための5層フレームワーク:規制、標準、認定の統合
- Authors: Avinash Agarwal, Manisha J. Nene,
- Abstract要約: 人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: The governance of artificial iintelligence (AI) systems requires a structured approach that connects high-level regulatory principles with practical implementation. Existing frameworks lack clarity on how regulations translate into conformity mechanisms, leading to gaps in compliance and enforcement. This paper addresses this critical gap in AI governance. Methodology/Approach: A five-layer AI governance framework is proposed, spanning from broad regulatory mandates to specific standards, assessment methodologies, and certification processes. By narrowing its scope through progressively focused layers, the framework provides a structured pathway to meet technical, regulatory, and ethical requirements. Its applicability is validated through two case studies on AI fairness and AI incident reporting. Findings: The case studies demonstrate the framework's ability to identify gaps in legal mandates, standardization, and implementation. It adapts to both global and region-specific AI governance needs, mapping regulatory mandates with practical applications to improve compliance and risk management. Practical Implications - By offering a clear and actionable roadmap, this work contributes to global AI governance by equipping policymakers, regulators, and industry stakeholders with a model to enhance compliance and risk management. Social Implications: The framework supports the development of policies that build public trust and promote the ethical use of AI for the benefit of society. Originality/Value: This study proposes a five-layer AI governance framework that bridges high-level regulatory mandates and implementation guidelines. Validated through case studies on AI fairness and incident reporting, it identifies gaps such as missing standardized assessment procedures and reporting mechanisms, providing a structured foundation for targeted governance measures.
- Abstract(参考訳): 目的: 人工知能(AI)システムのガバナンスには,高レベルの規制原則と実践的実装を結びつける構造的アプローチが必要である。
既存のフレームワークは、規制が適合性メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
本稿では、AIガバナンスにおけるこの重要なギャップに対処する。
方法論/アプリケーション: 広範な規制委任事項から特定の標準、評価方法論、認定プロセスまで、五層AIガバナンスフレームワークが提案されている。
段階的に焦点を絞ったレイヤを通じてスコープを狭めることで、このフレームワークは技術的、規制的、倫理的要件を満たすための構造化された経路を提供する。
その適用性は、AIフェアネスとAIインシデントレポートの2つのケーススタディを通じて検証されている。
発見: ケーススタディでは、法的義務、標準化、実装のギャップを識別するフレームワークの能力を実証しています。
グローバルとリージョン固有のAIガバナンスのニーズに適応し、コンプライアンスとリスク管理を改善するために、規制委任事項を実用的なアプリケーションにマッピングする。
実践的含意 - 明確で実行可能なロードマップを提供することで、この作業は、政策立案者、規制当局、業界関係者にコンプライアンスとリスク管理を強化するモデルを設けることで、グローバルAIガバナンスに寄与する。
社会的意味: このフレームワークは、社会の利益のために、公的な信頼を構築し、AIの倫理的利用を促進する政策の開発を支援する。
Originality/Value: この研究は、ハイレベルな規制規定と実装ガイドラインをブリッジする5層AIガバナンスフレームワークを提案する。
AIフェアネスとインシデントレポートに関するケーススタディを通じて検証され、標準化された評価手順や報告メカニズムの欠如などのギャップを特定し、ターゲットとするガバナンス対策のための構造化された基盤を提供する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Bottom-Up Perspectives on AI Governance: Insights from User Reviews of AI Products [0.0]
本研究は,ガバナンス関連テーマをユーザ談話でどのように表現するかをボトムアップで検討する。
G2.comの10万以上のAI製品のユーザレビューに基づいて、BERTopicを適用して、潜伏したテーマを抽出し、AIガバナンスに関連する最も意味のあるものを特定する。
論文 参考訳(メタデータ) (2025-05-30T01:33:21Z) - Toward Effective AI Governance: A Review of Principles [2.5411385112104448]
本研究の目的は、AIガバナンスに関する二次文献において、どのフレームワーク、原則、メカニズム、ステークホルダーの役割が強調されているかを特定することである。
最も引用されているフレームワークは、EU AI ActとNIST RMFである。
論文 参考訳(メタデータ) (2025-05-29T13:07:45Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - Resolving Ethics Trade-offs in Implementing Responsible AI [18.894725256708128]
初歩的なものから複雑なものまで、トレードオフを通じて緊張に対処するための5つのアプローチをカバーします。
いずれのアプローチも、すべての組織、システム、アプリケーションに適していない可能性が高い。
i)緊張の積極的な識別、(ii)倫理的側面の優先順位付けと重み付け、(iii)トレードオフ決定の正当化と文書化からなる枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-16T04:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。