論文の概要: Practical Application and Limitations of AI Certification Catalogues in the Light of the AI Act
- arxiv url: http://arxiv.org/abs/2502.10398v2
- Date: Tue, 18 Feb 2025 07:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:04:57.918411
- Title: Practical Application and Limitations of AI Certification Catalogues in the Light of the AI Act
- Title(参考訳): AI法の光におけるAI認定カタログの実用化と限界
- Authors: Gregor Autischer, Kerstin Waxnegger, Dominik Kowald,
- Abstract要約: この研究は、AI法に照らして既存の認定カタログの実用的適用と制限に焦点を当てている。
我々は、AIアセスメントカタログを総合的なツールとして、AIモデルの認定基準準拠を体系的に評価する。
我々は、もはやアクティブな開発チームを持たないAIシステムの限界を観察し、完全なシステムドキュメンテーションの重要性を強調します。
- 参考スコア(独自算出の注目度): 0.1433758865948252
- License:
- Abstract: In this work-in-progress, we investigate the certification of AI systems, focusing on the practical application and limitations of existing certification catalogues in the light of the AI Act by attempting to certify a publicly available AI system. We aim to evaluate how well current approaches work to effectively certify an AI system, and how publicly accessible AI systems, that might not be actively maintained or initially intended for certification, can be selected and used for a sample certification process. Our methodology involves leveraging the Fraunhofer AI Assessment Catalogue as a comprehensive tool to systematically assess an AI model's compliance with certification standards. We find that while the catalogue effectively structures the evaluation process, it can also be cumbersome and time-consuming to use. We observe the limitations of an AI system that has no active development team anymore and highlighted the importance of complete system documentation. Finally, we identify some limitations of the certification catalogues used and proposed ideas on how to streamline the certification process.
- Abstract(参考訳): 本稿では,公用AIシステムの認証を試み,AI法に照らして既存の認証カタログの実用的適用と限界に着目し,AIシステムの認証について検討する。
我々は、現在のアプローチがAIシステムを効果的に認証するためにどのように機能するかを評価することを目的としており、アクティブにメンテナンスされていない、あるいは認証を意図していない公にアクセスできるAIシステムが、どのようにしてサンプル認証プロセスに選択され、使用されるかを評価することを目指している。
我々の方法論では、Fraunhofer AIアセスメントカタログを、AIモデルの認定基準への準拠を体系的に評価するための包括的なツールとして活用する。
カタログは評価過程を効果的に構成するが、使いづらく、使いづらく、時間もかかります。
我々は、もはやアクティブな開発チームを持たないAIシステムの制限を観察し、完全なシステムドキュメンテーションの重要性を強調した。
最後に、使用する認証カタログのいくつかの制限を特定し、認定プロセスの合理化方法を提案する。
関連論文リスト
- Using Formal Models, Safety Shields and Certified Control to Validate AI-Based Train Systems [0.5249805590164903]
KI-LOKプロジェクトは、AIコンポーネントを自律列車に安全に統合するための新しい方法を模索している。
我々は,(1)B法を用いた形式解析によるステアリングシステムの安全性確保,(2)ランタイム証明書チェッカーによる認識システムの信頼性向上という2層的なアプローチを追求する。
この作業は、実際のAI出力と実際の証明書チェッカーによって制御されるフォーマルモデル上でシミュレーションを実行するデモレータ内の両方の戦略をリンクする。
論文 参考訳(メタデータ) (2024-11-21T18:09:04Z) - Towards Certified Unlearning for Deep Neural Networks [50.816473152067104]
認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
論文 参考訳(メタデータ) (2024-08-01T21:22:10Z) - The Contribution of XAI for the Safe Development and Certification of AI: An Expert-Based Analysis [4.119574613934122]
機械学習モデルのブラックボックスの性質は、複雑な技術システムの認証に対する従来のアプローチの使用を制限する。
潜在的な解決策として、このブラックボックスに関する洞察を与える方法が考えられる。
XAIメソッドは安全なAI開発に役立つが、認証は技術システムに関する包括的で正確な情報に依存しているため、その影響は限定されると予想されている。
論文 参考訳(メタデータ) (2024-07-22T16:08:21Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - A General Framework for Verification and Control of Dynamical Models via Certificate Synthesis [54.959571890098786]
システム仕様を符号化し、対応する証明書を定義するためのフレームワークを提供する。
コントローラと証明書を形式的に合成する自動化手法を提案する。
我々のアプローチは、ニューラルネットワークの柔軟性を利用して、制御のための安全な学習の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2023-09-12T09:37:26Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Rethinking Certification for Trustworthy Machine Learning-Based
Applications [3.886429361348165]
機械学習(ML)は、非決定論的振る舞いを持つ高度なアプリケーションの実装にますます使われています。
既存の認証スキームは、MLモデル上に構築された非決定論的アプリケーションにはすぐには適用されない。
本稿では、現状の認定制度の課題と欠陥を分析し、オープンな研究課題について論じ、MLベースのアプリケーションのための最初の認定制度を提案する。
論文 参考訳(メタデータ) (2023-05-26T11:06:28Z) - Developing an AI-enabled IIoT platform -- Lessons learned from early use
case validation [47.37985501848305]
本稿では,このプラットフォームの設計について紹介し,AIによる視覚的品質検査の実証者の観点からの早期評価について述べる。
これは、この初期の評価活動で学んだ洞察と教訓によって補完される。
論文 参考訳(メタデータ) (2022-07-10T18:51:12Z) - Certifiable Artificial Intelligence Through Data Fusion [7.103626867766158]
本稿では,人工知能(AI)システムの採用,フィールド化,保守に関する課題をレビューし,提案する。
画像データ融合により、精度対距離を考慮したAI物体認識精度を支援する。
論文 参考訳(メタデータ) (2021-11-03T03:34:19Z) - AI Certification: Advancing Ethical Practice by Reducing Information
Asymmetries [0.0]
本稿は、現在のAI認定プログラムと提案の認定とレビューに関する管理文献から引用する。
このレビューは、この分野が現在、システム、個人、組織の自己証明と第三者による認証に焦点を当てていることを示している。
論文 参考訳(メタデータ) (2021-05-20T08:27:29Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。