論文の概要: Safety design concepts for statistical machine learning components
toward accordance with functional safety standards
- arxiv url: http://arxiv.org/abs/2008.01263v1
- Date: Tue, 4 Aug 2020 01:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:04:56.812812
- Title: Safety design concepts for statistical machine learning components
toward accordance with functional safety standards
- Title(参考訳): 機能安全基準に適合した統計的機械学習コンポーネントの安全設計概念
- Authors: Akihisa Morikawa and Yutaka Matsubara
- Abstract要約: 近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
- 参考スコア(独自算出の注目度): 0.38073142980732994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, curial incidents and accidents have been reported due to
un-intended control caused by misjudgment of statistical machine learning
(SML), which include deep learning. The international functional safety
standards for Electric/Electronic/Programmable (E/E/P) systems have been widely
spread to improve safety. However, most of them do not recom-mended to use SML
in safety critical systems so far. In practical the new concepts and methods
are urgently required to enable SML to be safely used in safety critical
systems. In this paper, we organize five kinds of technical safety concepts
(TSCs) for SML components toward accordance with functional safety standards.
We discuss not only quantitative evaluation criteria, but also development
process based on XAI (eXplainable Artificial Intelligence) and Automotive SPICE
to improve explainability and reliability in development phase. Fi-nally, we
briefly compare the TSCs in cost and difficulty, and expect to en-courage
further discussion in many communities and domain.
- Abstract(参考訳): 近年,深層学習を含む統計的機械学習(SML)の誤判断による意図しない制御が原因で,キュリアルな事故や事故が報告されている。
電気・電子・プログラム可能な(e/e/p)システムの国際機能安全基準は、安全性を改善するために広く普及している。
しかし、これらの多くは、これまで安全クリティカルシステムにSMLを使用することを推奨していない。
実用的には、安全クリティカルシステムにおいてSMLを安全に使用できるように、新しい概念と方法が緊急に必要である。
本稿では,機能安全基準に従って,SMLコンポーネントの5種類の技術安全概念(TSC)を整理する。
我々は、定量的評価基準だけでなく、XAI(eXplainable Artificial Intelligence)とAutomotive SPICEに基づく開発プロセスについても論じ、開発フェーズにおける説明可能性と信頼性を向上させる。
いずれにせよ、TSCのコストと難易度を短時間比較し、多くのコミュニティやドメインでさらなる議論を進めることを期待する。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - SAFETY-J: Evaluating Safety with Critique [24.723999605458832]
SAFETY-Jは、英語と中国語のための二言語生成安全評価器であり、批判に基づく判断である。
人間の介入を最小限に抑えて批評の質を客観的に評価する自動メタ評価ベンチマークを構築した。
SAFETY-Jはよりニュアンスで正確な安全性評価を提供し、複雑なコンテンツシナリオにおける批判的品質と予測信頼性の両面を向上することを示した。
論文 参考訳(メタデータ) (2024-07-24T08:04:00Z) - Towards Comprehensive and Efficient Post Safety Alignment of Large Language Models via Safety Patching [77.36097118561057]
textscSafePatchingは包括的で効率的なPSAのための新しいフレームワークである。
textscSafePatchingはベースラインメソッドよりも包括的で効率的なPSAを実現する。
論文 参考訳(メタデータ) (2024-05-22T16:51:07Z) - Safety Analysis of Autonomous Railway Systems: An Introduction to the SACRED Methodology [2.47737926497181]
本稿では,自律システムの初期安全ケースを作成するための安全手法であるSACREDを紹介する。
SACREDの開発は、ベルリンで提案されたGoA-4ライトレールシステムによって動機付けられている。
論文 参考訳(メタデータ) (2024-03-18T11:12:19Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - Usable Security for ML Systems in Mental Health: A Framework [2.436681150766912]
本稿では、メンタルヘルスにおける機械学習システムのセキュリティ関連の設計、実装、展開をガイドし、評価するためのフレームワークを紹介する。
我々は、メンタルヘルスにおけるこれらのMLシステムのエンドユーザーに対して、セキュリティメカニズムを利用できるようにするための新しい原則と要件を提案する。
本稿では、メンタルヘルスアプリケーションにおけるMLシステムにおけるさまざまなセキュリティケースとプロファイルを検査し、評価する、いくつかの具体的なシナリオについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。