論文の概要: Interplay of ISMS and AIMS in context of the EU AI Act
- arxiv url: http://arxiv.org/abs/2412.18670v1
- Date: Tue, 24 Dec 2024 20:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 21:44:04.882981
- Title: Interplay of ISMS and AIMS in context of the EU AI Act
- Title(参考訳): EU AI法におけるIMSとAIMSの相互作用
- Authors: Jordan Pötsch,
- Abstract要約: EU AI Act(AIA)は、リスク管理システム(RMS)と品質管理システム(QMS)のハイリスクAIシステムの実装を規定している。
本稿では,情報セキュリティ管理システム(ISMS)とAIMS(AIMS)のインターフェースについて検討する。
BSI GrundschutzフレームワークにAIシステムのセキュリティを包括的に保証するために、4つの新しいAIモジュールが提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The EU AI Act (AIA) mandates the implementation of a risk management system (RMS) and a quality management system (QMS) for high-risk AI systems. The ISO/IEC 42001 standard provides a foundation for fulfilling these requirements but does not cover all EU-specific regulatory stipulations. To enhance the implementation of the AIA in Germany, the Federal Office for Information Security (BSI) could introduce the national standard BSI 200-5, which specifies AIA requirements and integrates existing ISMS standards, such as ISO/IEC 27001. This paper examines the interfaces between an information security management system (ISMS) and an AI management system (AIMS), demonstrating that incorporating existing ISMS controls with specific AI extensions presents an effective strategy for complying with Article 15 of the AIA. Four new AI modules are introduced, proposed for inclusion in the BSI IT Grundschutz framework to comprehensively ensure the security of AI systems. Additionally, an approach for adapting BSI's qualification and certification systems is outlined to ensure that expertise in secure AI handling is continuously developed. Finally, the paper discusses how the BSI could bridge international standards and the specific requirements of the AIA through the nationalization of ISO/IEC 42001, creating synergies and bolstering the competitiveness of the German AI landscape.
- Abstract(参考訳): EU AI Act(AIA)は、リスク管理システム(RMS)と品質管理システム(QMS)のハイリスクAIシステムの実装を規定している。
ISO/IEC 42001標準は、これらの要求を満たすための基盤を提供するが、EU固有の規制規定をすべてカバーしていない。
ドイツにおけるAIAの実装を強化するため、連邦情報セキュリティ局(BSI)は、AIAの要求を規定し、ISO/IEC 27001のような既存のIMS標準を統合する、BSI 200-5の国定標準を導入することができる。
本稿では,情報セキュリティ管理システム (ISMS) とAIMS (AIMS) のインターフェースについて検討し,既存のISMSコントロールを特定のAI拡張に組み込むことが,AIAの第15条に準拠するための効果的な戦略を示すことを示す。
BSI IT GrundschutzフレームワークにAIシステムのセキュリティを包括的に保証するために、4つの新しいAIモジュールが提案されている。
さらに、セキュアなAI処理における専門知識が継続的に開発されることを保証するため、BSIの資格と認定システムを適用するためのアプローチの概要が述べられている。
最後に、BSIがISO/IEC 42001の国有化を通じて国際標準とAIAの具体的な要件を橋渡しし、シナジーを生み出し、ドイツのAIランドスケープの競争力を高める方法について論じる。
関連論文リスト
- Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts [0.0]
ISO標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
それらの効果は、EUのリスクベースのAI法から中国の安定性にフォーカスした措置まで、さまざまな規制の状況によって異なる。
本稿では,ISO標準がいかに倫理的リスクに対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T00:44:20Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Design of a Quality Management System based on the EU Artificial Intelligence Act [0.0]
EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
論文 参考訳(メタデータ) (2024-08-08T12:14:02Z) - AIR-Bench 2024: A Safety Benchmark Based on Risk Categories from Regulations and Policies [80.90138009539004]
AIR-Bench 2024は、新しい政府の規制や企業のポリシーに適合する最初のAI安全ベンチマークである。
8つの政府規制と16の企業政策を4階層の安全分類に分解し、最も低い階層に粒度の細かいリスクカテゴリを分類する。
AIR-Bench 2024上での言語モデルの評価を行い,その安全性に関する知見を明らかにした。
論文 参考訳(メタデータ) (2024-07-11T21:16:48Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Towards an AI Accountability Policy [16.59829043755575]
リスクの高い技術が国家レベルでどのように規制されているかを検討する。
本稿では,商用AIシステムにおける説明可能性とベンチマーク要件の連携システムを提案する。
論文 参考訳(メタデータ) (2023-07-25T17:09:28Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。