論文の概要: Safety design concepts for statistical machine learning components
toward accordance with functional safety standards
- arxiv url: http://arxiv.org/abs/2008.01263v1
- Date: Tue, 4 Aug 2020 01:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:04:56.812812
- Title: Safety design concepts for statistical machine learning components
toward accordance with functional safety standards
- Title(参考訳): 機能安全基準に適合した統計的機械学習コンポーネントの安全設計概念
- Authors: Akihisa Morikawa and Yutaka Matsubara
- Abstract要約: 近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
- 参考スコア(独自算出の注目度): 0.38073142980732994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, curial incidents and accidents have been reported due to
un-intended control caused by misjudgment of statistical machine learning
(SML), which include deep learning. The international functional safety
standards for Electric/Electronic/Programmable (E/E/P) systems have been widely
spread to improve safety. However, most of them do not recom-mended to use SML
in safety critical systems so far. In practical the new concepts and methods
are urgently required to enable SML to be safely used in safety critical
systems. In this paper, we organize five kinds of technical safety concepts
(TSCs) for SML components toward accordance with functional safety standards.
We discuss not only quantitative evaluation criteria, but also development
process based on XAI (eXplainable Artificial Intelligence) and Automotive SPICE
to improve explainability and reliability in development phase. Fi-nally, we
briefly compare the TSCs in cost and difficulty, and expect to en-courage
further discussion in many communities and domain.
- Abstract(参考訳): 近年,深層学習を含む統計的機械学習(SML)の誤判断による意図しない制御が原因で,キュリアルな事故や事故が報告されている。
電気・電子・プログラム可能な(e/e/p)システムの国際機能安全基準は、安全性を改善するために広く普及している。
しかし、これらの多くは、これまで安全クリティカルシステムにSMLを使用することを推奨していない。
実用的には、安全クリティカルシステムにおいてSMLを安全に使用できるように、新しい概念と方法が緊急に必要である。
本稿では,機能安全基準に従って,SMLコンポーネントの5種類の技術安全概念(TSC)を整理する。
我々は、定量的評価基準だけでなく、XAI(eXplainable Artificial Intelligence)とAutomotive SPICEに基づく開発プロセスについても論じ、開発フェーズにおける説明可能性と信頼性を向上させる。
いずれにせよ、TSCのコストと難易度を短時間比較し、多くのコミュニティやドメインでさらなる議論を進めることを期待する。
関連論文リスト
- SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large
Language Models [112.46733790998024]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Usable Security for ML Systems in Mental Health: A Framework [2.436681150766912]
本稿では、メンタルヘルスにおける機械学習システムのセキュリティ関連の設計、実装、展開をガイドし、評価するためのフレームワークを紹介する。
我々は、メンタルヘルスにおけるこれらのMLシステムのエンドユーザーに対して、セキュリティメカニズムを利用できるようにするための新しい原則と要件を提案する。
本稿では、メンタルヘルスアプリケーションにおけるMLシステムにおけるさまざまなセキュリティケースとプロファイルを検査し、評価する、いくつかの具体的なシナリオについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:44:47Z) - SafeML: Safety Monitoring of Machine Learning Classifiers through
Statistical Difference Measure [1.2599533416395765]
本稿では,MLシステムの運用において,単一の保護概念内での安全性とセキュリティの両面に対処することを目的とする。
本研究では,経験的累積分布関数(ECDF)の距離測定値を用いて,データ駆動システムの動作と運用状況を監視する。
予備的な知見は,MLコンポーネントのアプリケーションコンテキストが安全性に有効であるかどうかを検知するための基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-05-27T05:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。