論文の概要: Lost in Vagueness: Towards Context-Sensitive Standards for Robustness Assessment under the EU AI Act
- arxiv url: http://arxiv.org/abs/2511.15620v1
- Date: Wed, 19 Nov 2025 17:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.913925
- Title: Lost in Vagueness: Towards Context-Sensitive Standards for Robustness Assessment under the EU AI Act
- Title(参考訳): バガネスの喪失:EU AI法の下でのロバストネス評価の文脈感性基準に向けて
- Authors: Roberta Tamponi, Carina Prunkl, Thomas Bäck, Anna V. Kononova,
- Abstract要約: ロバストネスは、EU人工知能法(AI法)に基づくリスクの高いAIシステムにとって重要な要件である
本稿では,AIシステムが堅牢であることの意味を考察し,文脈に敏感な標準化の必要性を示す。
- 参考スコア(独自算出の注目度): 2.740981829798319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness is a key requirement for high-risk AI systems under the EU Artificial Intelligence Act (AI Act). However, both its definition and assessment methods remain underspecified, leaving providers with little concrete direction on how to demonstrate compliance. This stems from the Act's horizontal approach, which establishes general obligations applicable across all AI systems, but leaves the task of providing technical guidance to harmonised standards. This paper investigates what it means for AI systems to be robust and illustrates the need for context-sensitive standardisation. We argue that robustness is not a fixed property of a system, but depends on which aspects of performance are expected to remain stable ("robustness of what"), the perturbations the system must withstand ("robustness to what") and the operational environment. We identify three contextual drivers--use case, data and model--that shape the relevant perturbations and influence the choice of tests, metrics and benchmarks used to evaluate robustness. The need to provide at least a range of technical options that providers can assess and implement in light of the system's purpose is explicitly recognised by the standardisation request for the AI Act, but planned standards, still focused on horizontal coverage, do not yet offer this level of detail. Building on this, we propose a context-sensitive multi-layered standardisation framework where horizontal standards set common principles and terminology, while domain-specific ones identify risks across the AI lifecycle and guide appropriate practices, organised in a dynamic repository where providers can propose new informative methods and share lessons learned. Such a system reduces the interpretative burden, mitigates arbitrariness and addresses the obsolescence of static standards, ensuring that robustness assessment is both adaptable and operationally meaningful.
- Abstract(参考訳): ロバストネスは、EU人工知能法(AI Act)の下で、リスクの高いAIシステムにとって重要な要件である。
しかし、その定義と評価方法は未定のままであり、プロバイダはコンプライアンスの実施方法に関する具体的な指示はほとんど残っていない。
これは、すべてのAIシステムに適用される一般的な義務を確立する法律の水平的アプローチに由来するが、調和された標準に対する技術的なガイダンスを提供するという任務は残されている。
本稿では,AIシステムが堅牢であることの意味を考察し,文脈に敏感な標準化の必要性を示す。
我々は、ロバスト性はシステムの固定的な性質ではなく、どの性能が安定していなければならないか("robustness of what")、システムが耐えられない摂動("robustness to what")と運用環境に依存していると主張している。
ユースケース、データ、モデルという3つのコンテキストドライバを特定し、関連する摂動を形作り、堅牢性を評価するために使用されるテスト、メトリクス、ベンチマークの選択に影響を与える。
プロバイダがシステムの目的を考慮して評価および実装可能な、少なくとも幅広い技術的オプションを提供する必要性は、AI法の標準化要求によって明確に認識されているが、計画された標準は、依然として水平のカバレッジに重点を置いているが、このレベルの詳細は提供されていない。
これに基づいて、我々は、水平標準が共通の原則と用語を定め、ドメイン固有のフレームワークがAIライフサイクル全体にわたるリスクを特定し、適切なプラクティスをガイドする、コンテキストに敏感な多層標準化フレームワークを提案する。
このようなシステムは解釈的負担を軽減し、任意性を緩和し、静的標準の陳腐化に対処し、堅牢性評価が適応可能かつ運用上有意義であることを保証する。
関連論文リスト
- Variance-Bounded Evaluation of Entity-Centric AI Systems Without Ground Truth: Theory and Measurement [0.0]
本稿では,エンティティ中心型AIシステムのための分散境界評価フレームワークであるVB-Scoreを紹介する。
VB-Scoreは制約緩和とモンテカルロサンプリングを通じて可算解釈を列挙する。
そして、システムの堅牢性を評価するために、システムアウトプットを解釈を越えて予測される成功によって評価し、分散によって罰する。
論文 参考訳(メタデータ) (2025-09-26T07:54:38Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - A Practical SAFE-AI Framework for Small and Medium-Sized Enterprises Developing Medical Artificial Intelligence Ethics Policies [0.0]
AI(SAFE-AI)におけるスケーラブルなアジャイル実行フレームワークについて紹介する。
SAFE-AIは、標準的なアジャイルベースの製品開発に倫理的監督を組み込むことによって、倫理的厳格さとビジネス上の優先順位のバランスをとる。
このフレームワークの中核となるコンポーネントは、シナリオベースの確率類似マッピングを用いた責任メトリクスである。
論文 参考訳(メタデータ) (2025-07-02T02:45:26Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。