論文の概要: Standards for trustworthy AI in the European Union: technical rationale, structural challenges, and an implementation path
- arxiv url: http://arxiv.org/abs/2602.00078v1
- Date: Wed, 21 Jan 2026 11:58:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-02-08 13:03:31.363542
- Title: Standards for trustworthy AI in the European Union: technical rationale, structural challenges, and an implementation path
- Title(参考訳): 欧州連合における信頼できるAIの標準--技術的根拠、構造的課題、実装パス
- Authors: Piercosma Bisconti, Marcello Galisai,
- Abstract要約: この白書は、AI法に基づく欧州のAI標準化の技術的基盤について考察する。
CEN/CENELECの標準化プロセスを説明するとともに、AIがユニークな課題を提起する理由を分析する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This white paper examines the technical foundations of European AI standardization under the AI Act. It explains how harmonized standards enable the presumption of conformity mechanism, describes the CEN/CENELEC standardization process, and analyzes why AI poses unique standardization challenges including stochastic behavior, data dependencies, immature evaluation practices, and lifecycle dynamics. The paper argues that AI systems are typically components within larger sociotechnical systems, requiring a layered approach where horizontal standards define process obligations and evidence structures while sectoral profiles specify domain-specific thresholds and acceptance criteria. It proposes a workable scheme based on risk management, reproducible technical checks redefined as stability of measured properties, structured documentation, comprehensive logging, and assurance cases that evolve over the system lifecycle. The paper demonstrates that despite methodological difficulties, technical standards remain essential for translating legal obligations into auditable engineering practice and enabling scalable conformity assessment across providers, assessors, and enforcement authorities
- Abstract(参考訳): この白書は、AI法に基づく欧州のAI標準化の技術的基盤について考察する。
CEN/CENELEC標準化プロセスの説明、確率的振る舞いやデータ依存関係、未熟な評価プラクティス、ライフサイクルダイナミクスなど、AIが独自の標準化課題を提起する理由を分析する。
プロセスの義務とエビデンス構造を定義し、セクタープロファイルはドメイン固有のしきい値と受け入れ基準を定義している。
リスク管理、再現可能な技術的チェックを、測定されたプロパティの安定性、構造化されたドキュメント、包括的なロギング、システムライフサイクルを通じて進化する保証ケースとして再定義した、実行可能なスキームを提案する。
本論文は, 方法論上の困難にもかかわらず, 法的義務を監査可能な工学的実践に翻訳し, 提供者, 評価者, 執行機関間のスケーラブルな適合性評価を可能にするためには, 技術的基準が不可欠であることを示す。
関連論文リスト
- Lost in Vagueness: Towards Context-Sensitive Standards for Robustness Assessment under the EU AI Act [2.740981829798319]
ロバストネスは、EU人工知能法(AI法)に基づくリスクの高いAIシステムにとって重要な要件である
本稿では,AIシステムが堅牢であることの意味を考察し,文脈に敏感な標準化の必要性を示す。
論文 参考訳(メタデータ) (2025-11-19T17:06:36Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - An Open Knowledge Graph-Based Approach for Mapping Concepts and Requirements between the EU AI Act and International Standards [1.9142148274342772]
EUのAI法は、規制の遵守に関する技術的要件に従って、そのような組織の焦点をシフトする。
本稿では、規則や標準における規範文に関連する用語と要件をマッピングするための、シンプルで繰り返し可能なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-21T18:21:09Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。