論文の概要: Assurance Cases as Foundation Stone for Auditing AI-enabled and
Autonomous Systems: Workshop Results and Political Recommendations for Action
from the ExamAI Project
- arxiv url: http://arxiv.org/abs/2208.08198v1
- Date: Wed, 17 Aug 2022 10:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:26:23.223333
- Title: Assurance Cases as Foundation Stone for Auditing AI-enabled and
Autonomous Systems: Workshop Results and Political Recommendations for Action
from the ExamAI Project
- Title(参考訳): AIを活用した自律システム監査のための基盤石としての保証事例--ワークショップ結果とExamAIプロジェクトからの行動推奨
- Authors: Rasmus Adler and Michael Klaes
- Abstract要約: ソフトウェア欠陥に対する安全基準の実施方法について検討する。
機能安全基準は、安全統合レベル(SIL)を使用して、どの安全対策を実施するかを定義する。
本稿では,個別に選択された,適用された措置が十分であると主張するための保証事例の利用を提案する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Machinery Directive and related harmonized standards do consider
that software is used to generate safety-relevant behavior of the machinery but
do not consider all kinds of software. In particular, software based on machine
learning (ML) are not considered for the realization of safety-relevant
behavior. This limits the introduction of suitable safety concepts for
autonomous mobile robots and other autonomous machinery, which commonly depend
on ML-based functions. We investigated this issue and the way safety standards
define safety measures to be implemented against software faults. Functional
safety standards use Safety Integrity Levels (SILs) to define which safety
measures shall be implemented. They provide rules for determining the SIL and
rules for selecting safety measures depending on the SIL. In this paper, we
argue that this approach can hardly be adopted with respect to ML and other
kinds of Artificial Intelligence (AI). Instead of simple rules for determining
an SIL and applying related measures against faults, we propose the use of
assurance cases to argue that the individually selected and applied measures
are sufficient in the given case. To get a first rating regarding the
feasibility and usefulness of our proposal, we presented and discussed it in a
workshop with experts from industry, German statutory accident insurance
companies, work safety and standardization commissions, and representatives
from various national, European, and international working groups dealing with
safety and AI. In this paper, we summarize the proposal and the workshop
discussion. Moreover, we check to which extent our proposal is in line with the
European AI Act proposal and current safety standardization initiatives
addressing AI and Autonomous Systems
- Abstract(参考訳): 欧州機械指令と関連する調和標準は、ソフトウェアは機械の安全関連行動を生成するために使用されるが、あらゆる種類のソフトウェアを考慮しないと考えている。
特に、機械学習(ML)に基づくソフトウェアは、安全関連行動の実現には向けられていない。
これにより、MLベースの機能に依存する自律移動ロボットや他の自律機械に適した安全概念の導入が制限される。
この問題と,ソフトウェア障害に対する安全対策を規定する安全基準について検討した。
機能安全基準は、どの安全対策を実施するかを定義するために安全整合性レベル(sils)を使用する。
これらは、SILを決定するためのルールと、SILに依存する安全対策を選択するためのルールを提供する。
本稿では,MLや他の人工知能(AI)に関して,このアプローチをほとんど適用できないことを論じる。
本報告では,SILを決定するための単純なルールや,それに関連する障害対策を適用する代わりに,個別に選択し,適用した措置が与えられた場合に十分であると主張する保証事例の利用を提案する。
本提案の実施可能性と有用性に関する最初の評価を得るため,我々は,産業,ドイツの法定事故保険会社,労働安全標準化委員会,および安全とaiを扱う各国,欧州,国際作業グループの代表者からなるワークショップで,提案を提示し,議論した。
本稿では,提案とワークショップの議論を要約する。
さらに、当社の提案が、欧州ai法の提案と、aiおよび自律システムに関する現在の安全標準化イニシアティブとどの程度一致しているかを確認します。
関連論文リスト
- Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Sustainability Through Cognition Aware Safety Systems -- Next Level
Human-Machine-Interaction [1.847374743273972]
産業安全は、生産シナリオの間、人間、機械、環境の物理的整合性を扱う。
認知意識安全システム(CASS)の概念は、人間の負荷、ストレス、注意に関するAIベースの推論とAIベースのアクションの選択を統合して、安全停止のトリガーを避けることである。
論文 参考訳(メタデータ) (2021-10-13T19:36:06Z) - AI at work -- Mitigating safety and discriminatory risk with technical
standards [0.0]
本稿は、既存の国際標準、ヨーロッパ標準、ドイツ標準の概要と評価を提供する。
この論文は、研究プロジェクト「ExamAI - Testing and Auditing of AI systems」の一部である。
論文 参考訳(メタデータ) (2021-08-26T15:13:42Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Regulating Safety and Security in Autonomous Robotic Systems [0.0]
自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
論文 参考訳(メタデータ) (2020-07-09T16:33:14Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。