論文の概要: Interplay of ISMS and AIMS in context of the EU AI Act
- arxiv url: http://arxiv.org/abs/2412.18670v1
- Date: Tue, 24 Dec 2024 20:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:29:33.456221
- Title: Interplay of ISMS and AIMS in context of the EU AI Act
- Title(参考訳): EU AI法におけるIMSとAIMSの相互作用
- Authors: Jordan Pötsch,
- Abstract要約: EU AI Act(AIA)は、リスク管理システム(RMS)と品質管理システム(QMS)のハイリスクAIシステムの実装を規定している。
本稿では,情報セキュリティ管理システム(ISMS)とAIMS(AIMS)のインターフェースについて検討する。
BSI GrundschutzフレームワークにAIシステムのセキュリティを包括的に保証するために、4つの新しいAIモジュールが提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The EU AI Act (AIA) mandates the implementation of a risk management system (RMS) and a quality management system (QMS) for high-risk AI systems. The ISO/IEC 42001 standard provides a foundation for fulfilling these requirements but does not cover all EU-specific regulatory stipulations. To enhance the implementation of the AIA in Germany, the Federal Office for Information Security (BSI) could introduce the national standard BSI 200-5, which specifies AIA requirements and integrates existing ISMS standards, such as ISO/IEC 27001. This paper examines the interfaces between an information security management system (ISMS) and an AI management system (AIMS), demonstrating that incorporating existing ISMS controls with specific AI extensions presents an effective strategy for complying with Article 15 of the AIA. Four new AI modules are introduced, proposed for inclusion in the BSI IT Grundschutz framework to comprehensively ensure the security of AI systems. Additionally, an approach for adapting BSI's qualification and certification systems is outlined to ensure that expertise in secure AI handling is continuously developed. Finally, the paper discusses how the BSI could bridge international standards and the specific requirements of the AIA through the nationalization of ISO/IEC 42001, creating synergies and bolstering the competitiveness of the German AI landscape.
- Abstract(参考訳): EU AI Act(AIA)は、リスク管理システム(RMS)と品質管理システム(QMS)のハイリスクAIシステムの実装を規定している。
ISO/IEC 42001標準は、これらの要求を満たすための基盤を提供するが、EU固有の規制規定をすべてカバーしていない。
ドイツにおけるAIAの実装を強化するため、連邦情報セキュリティ局(BSI)は、AIAの要求を規定し、ISO/IEC 27001のような既存のIMS標準を統合する、BSI 200-5の国定標準を導入することができる。
本稿では,情報セキュリティ管理システム (ISMS) とAIMS (AIMS) のインターフェースについて検討し,既存のISMSコントロールを特定のAI拡張に組み込むことが,AIAの第15条に準拠するための効果的な戦略を示すことを示す。
BSI IT GrundschutzフレームワークにAIシステムのセキュリティを包括的に保証するために、4つの新しいAIモジュールが提案されている。
さらに、セキュアなAI処理における専門知識が継続的に開発されることを保証するため、BSIの資格と認定システムを適用するためのアプローチの概要が述べられている。
最後に、BSIがISO/IEC 42001の国有化を通じて国際標準とAIAの具体的な要件を橋渡しし、シナジーを生み出し、ドイツのAIランドスケープの競争力を高める方法について論じる。
関連論文リスト
- GPAI Evaluations Standards Taskforce: Towards Effective AI Governance [0.0]
汎用AI評価は、AI開発とデプロイメントによって引き起こされるシステム的リスクを特定し緩和する、有望な方法として提案されている。
品質や正当性を促進するための基準は今のところ存在しない。
我々は、EU GPAI評価基準タスクフォースを、EU AI法によって制定された機関内に収容することを提案する。
論文 参考訳(メタデータ) (2024-11-21T03:14:31Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Enhancing Productivity with AI During the Development of an ISMS: Case Kempower [3.94000837747249]
本稿では、フィンランドの企業であるKempowerが、ISMSの作成と実装に生成AIを効果的に利用した方法について論じる。
本研究は、生成AIの使用が、IMSの作成プロセスを強化する方法について研究する。
論文 参考訳(メタデータ) (2024-09-26T20:37:31Z) - Design of a Quality Management System based on the EU Artificial Intelligence Act [0.0]
EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
論文 参考訳(メタデータ) (2024-08-08T12:14:02Z) - AIR-Bench 2024: A Safety Benchmark Based on Risk Categories from Regulations and Policies [80.90138009539004]
AIR-Bench 2024は、新しい政府の規制や企業のポリシーに適合する最初のAI安全ベンチマークである。
8つの政府規制と16の企業政策を4階層の安全分類に分解し、最も低い階層に粒度の細かいリスクカテゴリを分類する。
AIR-Bench 2024上での言語モデルの評価を行い,その安全性に関する知見を明らかにした。
論文 参考訳(メタデータ) (2024-07-11T21:16:48Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。