論文の概要: Assessing High-Risk Systems: An EU AI Act Verification Framework
- arxiv url: http://arxiv.org/abs/2512.13907v1
- Date: Mon, 15 Dec 2025 21:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.499992
- Title: Assessing High-Risk Systems: An EU AI Act Verification Framework
- Title(参考訳): ハイリスクシステムを評価する - EU AI Act Verification Framework
- Authors: Alessio Buscemi, Tom Deckenbrunnen, Fahria Kabir, Nishat Mowla, Kateryna Mishchenko,
- Abstract要約: EUにおけるAI法およびその他のAI関連規制の実施における中心的な課題は、法的義務を検証するための体系的なアプローチの欠如である。
最近の調査は、この規制の曖昧さが重大な負担と認識され、加盟国間で矛盾する準備が整ったことを示している。
本稿では,2つの基本的側面に沿ってコンプライアンス検証を組織化することで,このギャップを埋めるための包括的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.05673443699623395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central challenge in implementing the AI Act and other AI-relevant regulations in the EU is the lack of a systematic approach to verify their legal mandates. Recent surveys show that this regulatory ambiguity is perceived as a significant burden, leading to inconsistent readiness across Member States. This paper proposes a comprehensive framework designed to help close this gap by organising compliance verification along two fundamental dimensions: the type of method (controls vs. testing) and the target of assessment (data, model, processes, and final product). Additionally, our framework maps core legal requirements to concrete verification activities, serving as a vital bridge between policymakers and practitioners, and aligning legal text with technical standards and best practices. The proposed approach aims to reduce interpretive uncertainty, promote consistency in assessment practices, and support the alignment of regulatory, ethical, and technical perspectives across the AI lifecycle.
- Abstract(参考訳): EUにおけるAI法およびその他のAI関連規制の実施における中心的な課題は、法的義務を検証するための体系的なアプローチの欠如である。
最近の調査は、この規制の曖昧さが重大な負担と認識され、加盟国間で矛盾する準備が整ったことを示している。
本稿では,このギャップを埋めるための包括的枠組みを提案し,コンプライアンス検証を2つの基本的側面 – メソッドの種類(制御対テスト)と評価対象(データ,モデル,プロセス,最終製品)に沿って編成する。
さらに、我々のフレームワークは、中核となる法的要件を具体的な検証活動にマッピングし、政策立案者と実践者の重要な橋渡しとして役立ち、法的テキストを技術標準とベストプラクティスに整合させる。
提案されたアプローチは、解釈の不確実性を低減し、アセスメントプラクティスにおける一貫性を促進し、AIライフサイクル全体にわたる規制、倫理、技術的視点の整合性をサポートすることを目的としている。
関連論文リスト
- Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - A five-layer framework for AI governance: integrating regulation, standards, and certification [0.6875312133832078]
人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
論文 参考訳(メタデータ) (2025-09-14T16:19:08Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EU AI法は、具体的な執行措置による世界最初の国際的AI規制である。
それは、製品の健康と安全性を規制する既存のEUメカニズムの上に構築されているが、基本的権利を保護するためにそれらを拡張している。
これはAI法の施行における複数の不確実性につながると我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。