論文の概要: Self-Certification of High-Risk AI Systems: The Example of AI-based Facial Emotion Recognition
- arxiv url: http://arxiv.org/abs/2601.08295v1
- Date: Tue, 13 Jan 2026 07:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.102935
- Title: Self-Certification of High-Risk AI Systems: The Example of AI-based Facial Emotion Recognition
- Title(参考訳): 高リスクAIシステムの自己証明:AIに基づく表情認識の例
- Authors: Gregor Autischer, Kerstin Waxnegger, Dominik Kowald,
- Abstract要約: 欧州連合の人工知能法は、リスクの高いAIシステムに対する包括的な要件を定めている。
認定フレームワークとしてのFraunhofer AIアセスメントカタログの実用化について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union's Artificial Intelligence Act establishes comprehensive requirements for high-risk AI systems, yet the harmonized standards necessary for demonstrating compliance remain not fully developed. In this paper, we investigate the practical application of the Fraunhofer AI assessment catalogue as a certification framework through a complete self-certification cycle of an AI-based facial emotion recognition system. Beginning with a baseline model that has deficiencies, including inadequate demographic representation and prediction uncertainty, we document an enhancement process guided by AI certification requirements. The enhanced system achieves higher accuracy with improved reliability metrics and comprehensive fairness across demographic groups. We focused our assessment on two of the six Fraunhofer catalogue dimensions, reliability and fairness, the enhanced system successfully satisfies the certification criteria for these examined dimensions. We find that the certification framework provides value as a proactive development tool, driving concrete technical improvements and generating documentation naturally through integration into the development process. However, fundamental gaps separate structured self-certification from legal compliance: harmonized European standards are not fully available, and AI assessment frameworks and catalogues cannot substitute for them on their own. These findings establish the Fraunhofer AI assessment catalogue as a valuable preparatory tool that complements rather than replaces formal compliance requirements at this time.
- Abstract(参考訳): 欧州連合の人工知能法は、リスクの高いAIシステムの包括的な要件を確立するが、コンプライアンスの実証に必要な調和された標準は、まだ完全には開発されていない。
本稿では,Fraunhofer AIアセスメントカタログを,AIに基づく顔の感情認識システムの完全自己認証サイクルを通じて,認証フレームワークとして実用的に活用することを検討する。
まず、不適切な人口分布の表現や予測の不確実性を含む欠陥のあるベースラインモデルから始め、AI認証要求によって導かれる拡張プロセスを文書化する。
この拡張システムは、信頼性の指標を改善し、人口統計群全体にわたる包括的公正性を向上することで、より高い精度を達成する。
我々は,6つのフラウンホーファーカタログ次元,信頼性,公正性の2つに焦点を絞った。
認定フレームワークはプロアクティブな開発ツールとしての価値を提供し、具体的な技術的改善を推進し、開発プロセスへの統合を通じてドキュメントを自然に生成します。
しかし、基本的ギャップは、法的コンプライアンスから構造化された自己証明を分離している。調和された欧州標準は、完全には利用できないし、AIアセスメントフレームワークやカタログは、彼ら自身で置き換えることができない。
これらの知見は、Fraunhofer AIアセスメントカタログを、現時点では正式なコンプライアンス要件を置き換えるのではなく、補完する貴重な準備ツールとして確立している。
関連論文リスト
- Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Criteria for Credible AI-assisted Carbon Footprinting Systems: The Cases of Mapping and Lifecycle Modeling [0.0]
製品や材料に対する温室効果ガス(GHG)排出量を算出するAI支援システムを検証するための一連の基準を提案する。
このアプローチは、AI支援環境アセスメントツールを評価するための実践者、監査人、および標準機関の基盤として使用することができる。
論文 参考訳(メタデータ) (2025-08-29T21:05:19Z) - The Architecture of Trust: A Framework for AI-Augmented Real Estate Valuation in the Era of Structured Data [0.0]
Uniform Appraisal dataset (UAD) 3.6の必須2026実装は、住宅資産の評価を物語報告から機械可読形式に変換する。
本稿では、コンピュータビジョン、自然言語処理、自律システムにおけるAIの進歩と並行して、この規制シフトを包括的に分析する。
技術的実装と機関的信頼要件に対処するAI付加評価のための3層フレームワークを開発する。
論文 参考訳(メタデータ) (2025-08-04T05:24:25Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Practical Application and Limitations of AI Certification Catalogues in the Light of the AI Act [0.1433758865948252]
この研究は、AI法に照らして既存の認定カタログの実用的適用と制限に焦点を当てている。
我々は、AIアセスメントカタログを総合的なツールとして、AIモデルの認定基準準拠を体系的に評価する。
我々は、もはやアクティブな開発チームを持たないAIシステムの限界を観察し、完全なシステムドキュメンテーションの重要性を強調します。
論文 参考訳(メタデータ) (2025-01-20T15:54:57Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。