論文の概要: Assurance Cases as Foundation Stone for Auditing AI-enabled and
Autonomous Systems: Workshop Results and Political Recommendations for Action
from the ExamAI Project
- arxiv url: http://arxiv.org/abs/2208.08198v1
- Date: Wed, 17 Aug 2022 10:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:26:23.223333
- Title: Assurance Cases as Foundation Stone for Auditing AI-enabled and
Autonomous Systems: Workshop Results and Political Recommendations for Action
from the ExamAI Project
- Title(参考訳): AIを活用した自律システム監査のための基盤石としての保証事例--ワークショップ結果とExamAIプロジェクトからの行動推奨
- Authors: Rasmus Adler and Michael Klaes
- Abstract要約: ソフトウェア欠陥に対する安全基準の実施方法について検討する。
機能安全基準は、安全統合レベル(SIL)を使用して、どの安全対策を実施するかを定義する。
本稿では,個別に選択された,適用された措置が十分であると主張するための保証事例の利用を提案する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Machinery Directive and related harmonized standards do consider
that software is used to generate safety-relevant behavior of the machinery but
do not consider all kinds of software. In particular, software based on machine
learning (ML) are not considered for the realization of safety-relevant
behavior. This limits the introduction of suitable safety concepts for
autonomous mobile robots and other autonomous machinery, which commonly depend
on ML-based functions. We investigated this issue and the way safety standards
define safety measures to be implemented against software faults. Functional
safety standards use Safety Integrity Levels (SILs) to define which safety
measures shall be implemented. They provide rules for determining the SIL and
rules for selecting safety measures depending on the SIL. In this paper, we
argue that this approach can hardly be adopted with respect to ML and other
kinds of Artificial Intelligence (AI). Instead of simple rules for determining
an SIL and applying related measures against faults, we propose the use of
assurance cases to argue that the individually selected and applied measures
are sufficient in the given case. To get a first rating regarding the
feasibility and usefulness of our proposal, we presented and discussed it in a
workshop with experts from industry, German statutory accident insurance
companies, work safety and standardization commissions, and representatives
from various national, European, and international working groups dealing with
safety and AI. In this paper, we summarize the proposal and the workshop
discussion. Moreover, we check to which extent our proposal is in line with the
European AI Act proposal and current safety standardization initiatives
addressing AI and Autonomous Systems
- Abstract(参考訳): 欧州機械指令と関連する調和標準は、ソフトウェアは機械の安全関連行動を生成するために使用されるが、あらゆる種類のソフトウェアを考慮しないと考えている。
特に、機械学習(ML)に基づくソフトウェアは、安全関連行動の実現には向けられていない。
これにより、MLベースの機能に依存する自律移動ロボットや他の自律機械に適した安全概念の導入が制限される。
この問題と,ソフトウェア障害に対する安全対策を規定する安全基準について検討した。
機能安全基準は、どの安全対策を実施するかを定義するために安全整合性レベル(sils)を使用する。
これらは、SILを決定するためのルールと、SILに依存する安全対策を選択するためのルールを提供する。
本稿では,MLや他の人工知能(AI)に関して,このアプローチをほとんど適用できないことを論じる。
本報告では,SILを決定するための単純なルールや,それに関連する障害対策を適用する代わりに,個別に選択し,適用した措置が与えられた場合に十分であると主張する保証事例の利用を提案する。
本提案の実施可能性と有用性に関する最初の評価を得るため,我々は,産業,ドイツの法定事故保険会社,労働安全標準化委員会,および安全とaiを扱う各国,欧州,国際作業グループの代表者からなるワークショップで,提案を提示し,議論した。
本稿では,提案とワークショップの議論を要約する。
さらに、当社の提案が、欧州ai法の提案と、aiおよび自律システムに関する現在の安全標準化イニシアティブとどの程度一致しているかを確認します。
関連論文リスト
- Safeguarding AI Agents: Developing and Analyzing Safety Architectures [0.0]
本稿では,人間チームと連携するAIシステムにおける安全対策の必要性について論じる。
我々は,AIエージェントシステムにおける安全プロトコルを強化する3つのフレームワークを提案し,評価する。
これらのフレームワークはAIエージェントシステムの安全性とセキュリティを大幅に強化することができると結論付けている。
論文 参考訳(メタデータ) (2024-09-03T10:14:51Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - AI at work -- Mitigating safety and discriminatory risk with technical
standards [0.0]
本稿は、既存の国際標準、ヨーロッパ標準、ドイツ標準の概要と評価を提供する。
この論文は、研究プロジェクト「ExamAI - Testing and Auditing of AI systems」の一部である。
論文 参考訳(メタデータ) (2021-08-26T15:13:42Z) - Regulating Safety and Security in Autonomous Robotic Systems [0.0]
自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
論文 参考訳(メタデータ) (2020-07-09T16:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。