論文の概要: Assessing High-Risk AI Systems under the EU AI Act: From Legal Requirements to Technical Verification
- arxiv url: http://arxiv.org/abs/2512.13907v2
- Date: Mon, 22 Dec 2025 13:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 14:49:56.251953
- Title: Assessing High-Risk AI Systems under the EU AI Act: From Legal Requirements to Technical Verification
- Title(参考訳): EU AI法に基づくハイリスクAIシステムの評価 - 法的要件から技術的検証まで
- Authors: Alessio Buscemi, Tom Deckenbrunnen, Fahria Kabir, Kateryna Mishchenko, Nishat Mowla,
- Abstract要約: 本稿では,ハイレベルなAI Act要件を,AIライフサイクル全体に適用可能な具体的かつ実装可能な検証活動に変換する構造化されたマッピングを提案する。
マッピングは、法的要件を運用上のサブ要件に分解し、権威的な標準と認識されたプラクティスを基礎とする、体系的なプロセスによって導出されます。
- 参考スコア(独自算出の注目度): 0.05673443699623395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The implementation of the AI Act requires practical mechanisms to verify compliance with legal obligations, yet concrete and operational mappings from high-level requirements to verifiable assessment activities remain limited, contributing to uneven readiness across Member States. This paper presents a structured mapping that translates high-level AI Act requirements into concrete, implementable verification activities applicable across the AI lifecycle. The mapping is derived through a systematic process in which legal requirements are decomposed into operational sub-requirements and grounded in authoritative standards and recognised practices. From this basis, verification activities are identified and characterised along two dimensions: the type of verification performed and the lifecycle target to which it applies. By making explicit the link between regulatory intent and technical and organisational assurance practices, the proposed mapping reduces interpretive uncertainty and provides a reusable reference for consistent, technology-agnostic compliance verification under the AI Act.
- Abstract(参考訳): AI法の実装には、法的義務の遵守を検証するための実践的なメカニズムが必要であるが、高レベルの要求から検証可能な評価活動への具体的なおよび運用上のマッピングは限定的であり、加盟国全体の不均一な準備に寄与している。
本稿では,ハイレベルなAI Act要件を,AIライフサイクル全体に適用可能な具体的かつ実装可能な検証活動に変換する構造化されたマッピングを提案する。
マッピングは、法的要件を運用上のサブ要件に分解し、権威的な標準と認識されたプラクティスを基礎とする、体系的なプロセスによって導出されます。
この観点から、検証活動は、実行された検証の種類と適用するライフサイクルターゲットの2つの次元に沿って識別され、特徴付けられる。
規制意図と技術的および組織的な保証プラクティスの関連を明確にすることで、提案されたマッピングは解釈の不確実性を低減し、AI法の下で一貫した技術に依存しないコンプライアンス検証のための再利用可能な参照を提供する。
関連論文リスト
- Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - A five-layer framework for AI governance: integrating regulation, standards, and certification [0.6875312133832078]
人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
論文 参考訳(メタデータ) (2025-09-14T16:19:08Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EU AI法は、具体的な執行措置による世界最初の国際的AI規制である。
それは、製品の健康と安全性を規制する既存のEUメカニズムの上に構築されているが、基本的権利を保護するためにそれらを拡張している。
これはAI法の施行における複数の不確実性につながると我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。