論文の概要: Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned
- arxiv url: http://arxiv.org/abs/2509.08852v1
- Date: Mon, 08 Sep 2025 17:52:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.071213
- Title: Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned
- Title(参考訳): 安全で認証可能なAIシステム - 概念、課題、教訓を学ぶ
- Authors: Kajetan Schweighofer, Barbara Brune, Lukas Gruber, Simon Schmid, Alexander Aufreiter, Andreas Gruber, Thomas Doms, Sebastian Eder, Florian Mayer, Xaver-Paul Stadlbauer, Christoph Schwald, Werner Zellinger, Bernhard Nessler, Sepp Hochreiter,
- Abstract要約: この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
- 参考スコア(独自算出の注目度): 45.44933002008943
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There is an increasing adoption of artificial intelligence in safety-critical applications, yet practical schemes for certifying that AI systems are safe, lawful and socially acceptable remain scarce. This white paper presents the T\"UV AUSTRIA Trusted AI framework an end-to-end audit catalog and methodology for assessing and certifying machine learning systems. The audit catalog has been in continuous development since 2019 in an ongoing collaboration with scientific partners. Building on three pillars - Secure Software Development, Functional Requirements, and Ethics & Data Privacy - the catalog translates the high-level obligations of the EU AI Act into specific, testable criteria. Its core concept of functional trustworthiness couples a statistically defined application domain with risk-based minimum performance requirements and statistical testing on independently sampled data, providing transparent and reproducible evidence of model quality in real-world settings. We provide an overview of the functional requirements that we assess, which are oriented on the lifecycle of an AI system. In addition, we share some lessons learned from the practical application of the audit catalog, highlighting common pitfalls we encountered, such as data leakage scenarios, inadequate domain definitions, neglect of biases, or a lack of distribution drift controls. We further discuss key aspects of certifying AI systems, such as robustness, algorithmic fairness, or post-certification requirements, outlining both our current conclusions and a roadmap for future research. In general, by aligning technical best practices with emerging European standards, the approach offers regulators, providers, and users a practical roadmap for legally compliant, functionally trustworthy, and certifiable AI systems.
- Abstract(参考訳): 安全クリティカルなアプリケーションでは人工知能の採用が増えているが、AIシステムが安全であり、合法であり、社会的に受け入れられるものではないことを証明するための実践的なスキームが残されている。
本稿では,機械学習システムの評価・認定のためのエンドツーエンド監査カタログと方法論であるT\"UV AUSTRIA Trusted AIフレームワークを提案する。
監査カタログは2019年から,科学パートナとの継続的なコラボレーションを通じて,継続的な開発が続けられている。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているこのカタログは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳する。
機能的信頼性というその中核的な概念は、リスクベースの最小パフォーマンス要件と独立したサンプルデータに対する統計的テストを備えた統計的に定義されたアプリケーションドメインを結合し、現実の環境でのモデル品質の透過的で再現可能な証拠を提供する。
我々は、AIシステムのライフサイクルを指向した、評価する機能要件の概要を提供する。
さらに、監査カタログの実践的応用から学んだ教訓を共有し、データ漏洩シナリオ、ドメイン定義の不十分、バイアスの無視、分散ドリフト制御の欠如など、私たちが遭遇した一般的な落とし穴を強調します。
さらに、ロバスト性、アルゴリズムの公正性、認定後要件といったAIシステムの認証に関する重要な側面についても論じ、現在の結論と今後の研究のロードマップを概説する。
一般的に、技術的ベストプラクティスを新興ヨーロッパの標準と整合させることによって、このアプローチは規制当局、プロバイダ、ユーザに対して、法的に準拠し、機能的に信頼性があり、認定可能なAIシステムのための実践的なロードマップを提供する。
関連論文リスト
- Criteria for Credible AI-assisted Carbon Footprinting Systems: The Cases of Mapping and Lifecycle Modeling [0.0]
製品や材料に対する温室効果ガス(GHG)排出量を算出するAI支援システムを検証するための一連の基準を提案する。
このアプローチは、AI支援環境アセスメントツールを評価するための実践者、監査人、および標準機関の基盤として使用することができる。
論文 参考訳(メタデータ) (2025-08-29T21:05:19Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Testing learning-enabled cyber-physical systems with Large-Language Models: A Formal Approach [32.15663640443728]
機械学習(ML)をサイバー物理システム(CPS)に統合することは大きな利益をもたらす。
既存の検証と検証技術は、しばしばこれらの新しいパラダイムには不十分である。
本稿では, 基礎確率テストからより厳密なアプローチへ移行し, 正式な保証を実現するためのロードマップを提案する。
論文 参考訳(メタデータ) (2023-11-13T14:56:14Z) - Functional trustworthiness of AI systems by statistically valid testing [7.717286312400472]
著者らは、現在のEU人工知能(AI)法の草案で要求される不適切な措置と手続きのために、欧州市民の安全、健康、および権利を懸念している。
私たちは、現在のEU AI Actの草案だけでなく、CEN/CENELECの標準化活動も、AIシステムの真の機能保証は非現実的であり、複雑すぎるという立場に頼っていることを観察しています。
論文 参考訳(メタデータ) (2023-10-04T11:07:52Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。