論文の概要: Assessing High-Risk AI Systems under the EU AI Act: From Legal Requirements to Technical Verification
- arxiv url: http://arxiv.org/abs/2512.13907v2
- Date: Mon, 22 Dec 2025 13:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 14:49:56.251953
- Title: Assessing High-Risk AI Systems under the EU AI Act: From Legal Requirements to Technical Verification
- Title(参考訳): EU AI法に基づくハイリスクAIシステムの評価 - 法的要件から技術的検証まで
- Authors: Alessio Buscemi, Tom Deckenbrunnen, Fahria Kabir, Kateryna Mishchenko, Nishat Mowla,
- Abstract要約: 本稿では,ハイレベルなAI Act要件を,AIライフサイクル全体に適用可能な具体的かつ実装可能な検証活動に変換する構造化されたマッピングを提案する。
マッピングは、法的要件を運用上のサブ要件に分解し、権威的な標準と認識されたプラクティスを基礎とする、体系的なプロセスによって導出されます。
- 参考スコア(独自算出の注目度): 0.05673443699623395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The implementation of the AI Act requires practical mechanisms to verify compliance with legal obligations, yet concrete and operational mappings from high-level requirements to verifiable assessment activities remain limited, contributing to uneven readiness across Member States. This paper presents a structured mapping that translates high-level AI Act requirements into concrete, implementable verification activities applicable across the AI lifecycle. The mapping is derived through a systematic process in which legal requirements are decomposed into operational sub-requirements and grounded in authoritative standards and recognised practices. From this basis, verification activities are identified and characterised along two dimensions: the type of verification performed and the lifecycle target to which it applies. By making explicit the link between regulatory intent and technical and organisational assurance practices, the proposed mapping reduces interpretive uncertainty and provides a reusable reference for consistent, technology-agnostic compliance verification under the AI Act.
- Abstract(参考訳): AI法の実装には、法的義務の遵守を検証するための実践的なメカニズムが必要であるが、高レベルの要求から検証可能な評価活動への具体的なおよび運用上のマッピングは限定的であり、加盟国全体の不均一な準備に寄与している。
本稿では,ハイレベルなAI Act要件を,AIライフサイクル全体に適用可能な具体的かつ実装可能な検証活動に変換する構造化されたマッピングを提案する。
マッピングは、法的要件を運用上のサブ要件に分解し、権威的な標準と認識されたプラクティスを基礎とする、体系的なプロセスによって導出されます。
この観点から、検証活動は、実行された検証の種類と適用するライフサイクルターゲットの2つの次元に沿って識別され、特徴付けられる。
規制意図と技術的および組織的な保証プラクティスの関連を明確にすることで、提案されたマッピングは解釈の不確実性を低減し、AI法の下で一貫した技術に依存しないコンプライアンス検証のための再利用可能な参照を提供する。
関連論文リスト
- LawThinker: A Deep Research Legal Agent in Dynamic Environments [51.782293183431676]
ローシンカー(LawThinker)は、アメリカ合衆国の法律研究者。
あらゆる知識探索のステップの後に、検証をアトミックな操作として実施する。
LawThinkerは、直接的な推論よりも24%改善している。
論文 参考訳(メタデータ) (2026-02-12T15:19:11Z) - Standards for trustworthy AI in the European Union: technical rationale, structural challenges, and an implementation path [0.0]
この白書は、AI法に基づく欧州のAI標準化の技術的基盤について考察する。
CEN/CENELECの標準化プロセスを説明するとともに、AIがユニークな課題を提起する理由を分析する。
論文 参考訳(メタデータ) (2026-01-21T11:58:47Z) - AI Deployment Authorisation: A Global Standard for Machine-Readable Governance of High-Risk Artificial Intelligence [0.0]
本稿では,AIシステムを評価する機械可読制御フレームワークであるAI Deployment Authorisation Score(ADAS)を紹介する。
ADASは暗号的に検証可能なデプロイメント証明書を生成しており、規制当局、保険会社、インフラオペレーターが運用するライセンスとして使用することができる。
論文 参考訳(メタデータ) (2026-01-11T18:14:20Z) - Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - A five-layer framework for AI governance: integrating regulation, standards, and certification [0.6875312133832078]
人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
論文 参考訳(メタデータ) (2025-09-14T16:19:08Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EU AI法は、具体的な執行措置による世界最初の国際的AI規制である。
それは、製品の健康と安全性を規制する既存のEUメカニズムの上に構築されているが、基本的権利を保護するためにそれらを拡張している。
これはAI法の施行における複数の不確実性につながると我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - RIRAG: Regulatory Information Retrieval and Answer Generation [51.998738311700095]
本稿では,質問を自動生成し,関連する規制通路と組み合わせる,問合せペアを生成するタスクを紹介する。
我々は、Abu Dhabi Global Markets (ADGM) の財務規制文書から得られた27,869の質問を含むObliQAデータセットを作成する。
本稿では,RIRAG(Regulation Information Retrieval and Answer Generation)システムをベースラインとして設計し,新しい評価基準であるRePASを用いて評価する。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。