論文の概要: Design of a Quality Management System based on the EU Artificial Intelligence Act
- arxiv url: http://arxiv.org/abs/2408.04689v2
- Date: Tue, 12 Nov 2024 13:37:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:19:40.365218
- Title: Design of a Quality Management System based on the EU Artificial Intelligence Act
- Title(参考訳): EU人工知能法に基づく品質管理システムの設計
- Authors: Henryk Mustroph, Stefanie Rinderle-Ma,
- Abstract要約: EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The EU AI Act mandates that providers and deployers of high-risk AI systems establish a quality management system (QMS). Among other criteria, a QMS shall help verify and document the AI system design and quality and monitor the proper implementation of all high-risk AI system requirements. Current research rarely explores practical solutions for implementing the EU AI Act. Instead, it tends to focus on theoretical concepts. As a result, more attention must be paid to tools that help humans actively check and document AI systems and orchestrate the implementation of all high-risk AI system requirements. Therefore, this paper introduces a new design concept and prototype for a QMS as a microservice Software as a Service web application. It connects directly to the AI system for verification and documentation and enables the orchestration and integration of various sub-services, which can be individually designed, each tailored to specific high-risk AI system requirements. The first version of the prototype connects to the Phi-3-mini-128k-instruct LLM as an example of an AI system and integrates a risk management system and a data management system. The prototype is evaluated through a qualitative assessment of the implemented requirements, a GPU memory and performance analysis, and an evaluation with IT, AI, and legal experts.
- Abstract(参考訳): EU AI法は、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを規定している。
その他の基準の中で、QMSはAIシステムの設計と品質の検証と文書化を支援し、リスクの高いすべてのAIシステム要件の適切な実装を監視する。
現在の研究は、EU AI法を実装するための実践的なソリューションをめったに調査していない。
代わりに、理論的な概念に焦点をあてる傾向がある。
結果として、人間がAIシステムを積極的にチェックし、文書化し、リスクの高いAIシステムをすべて実装するためのツールにより多くの注意を払わなければならない。
そこで本研究では,マイクロサービスソフトウェア・アズ・ア・サービスWebアプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
検証とドキュメンテーションのためにAIシステムに直接接続し、個々の設計が可能なさまざまなサブサービスのオーケストレーションと統合を可能にする。
プロトタイプの最初のバージョンは、AIシステムの例としてPhi-3-mini-128k-instruct LLMに接続し、リスク管理システムとデータ管理システムを統合する。
プロトタイプは、実装された要件の質的な評価、GPUメモリとパフォーマンス分析、IT、AI、法律の専門家による評価を通じて評価される。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - What is Software Quality for AI Engineers? Towards a Thinning of the Fog [9.401273164668092]
本研究の目的は,AI/MLコンポーネントやコードの開発,統合,メンテナンスにおいて採用されるソフトウェア品質保証戦略を検討することである。
インタビューデータの質的分析により、AI/MLコンポーネントの開発における12の課題が明らかになった。
本研究の結果は,AI/MLコンポーネントのソフトウェア品質保証プロセスと技術に関する今後の研究を導くものである。
論文 参考訳(メタデータ) (2022-03-23T19:43:35Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Proceedings of the Robust Artificial Intelligence System Assurance
(RAISA) Workshop 2022 [0.0]
RAISAワークショップは、堅牢な人工知能(AI)と機械学習(ML)システムの研究、開発、応用に焦点を当てる。
特定のMLアルゴリズムに関してロバストネスを研究するのではなく、システムアーキテクチャのレベルでロバストネスの保証を検討することを目的としています。
論文 参考訳(メタデータ) (2022-02-10T01:15:50Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Opening the Software Engineering Toolbox for the Assessment of
Trustworthy AI [17.910325223647362]
我々は、信頼できるAIを評価するためのソフトウェアエンジニアリングとテストプラクティスの適用について論じる。
欧州委員会のAIハイレベル専門家グループによって定義された7つの重要な要件の関連付けを行います。
論文 参考訳(メタデータ) (2020-07-14T08:16:15Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。