論文の概要: Quantifying Assurance in Learning-enabled Systems
- arxiv url: http://arxiv.org/abs/2006.10345v1
- Date: Thu, 18 Jun 2020 08:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 14:35:16.994951
- Title: Quantifying Assurance in Learning-enabled Systems
- Title(参考訳): 学習支援システムにおける保証の定量化
- Authors: Erfan Asaadi, Ewen Denney, Ganesh Pai
- Abstract要約: 機械学習コンポーネントを組み込んだシステムの依存性保証は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
本稿では, LESが信頼できるという保証の定量的概念を, 保証ケースのコアコンポーネントとして開発する。
本稿では,現実の自律型航空システムへの適用による保証対策の有用性について述べる。
- 参考スコア(独自算出の注目度): 3.0938904602244355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dependability assurance of systems embedding machine learning(ML)
components---so called learning-enabled systems (LESs)---is a key step for
their use in safety-critical applications. In emerging standardization and
guidance efforts, there is a growing consensus in the value of using assurance
cases for that purpose. This paper develops a quantitative notion of assurance
that an LES is dependable, as a core component of its assurance case, also
extending our prior work that applied to ML components. Specifically, we
characterize LES assurance in the form of assurance measures: a probabilistic
quantification of confidence that an LES possesses system-level properties
associated with functional capabilities and dependability attributes. We
illustrate the utility of assurance measures by application to a real world
autonomous aviation system, also describing their role both in i) guiding
high-level, runtime risk mitigation decisions and ii) as a core component of
the associated dynamic assurance case.
- Abstract(参考訳): 機械学習(ML)コンポーネントを組み込んだシステムの依存性保証 - いわゆる学習対応システム(LES) - は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
新たな標準化とガイダンスの取り組みでは、その目的のために保証ケースを使用するという価値の合意が高まっている。
本稿では,LESが信頼できるという保証の量的概念を,その保証ケースのコアコンポーネントとして発展させ,MLコンポーネントに適用したこれまでの作業を拡張した。
具体的には,LESが機能的機能や信頼性特性に関連するシステムレベルの特性を有するという信頼性の確率論的定量化という,保証尺度の形式でのLES保証を特徴付ける。
本稿では,実世界の自律飛行システムへの適用による保証措置の有用性を説明し,その役割について述べる。
一 高レベルの実行リスク軽減決定を導出すること。
二 関連するダイナミック・アシュアランス・ケースの中核的な構成要素として
関連論文リスト
- SafetyAnalyst: Interpretable, transparent, and steerable LLM safety moderation [56.10557932893919]
本稿では,新しいLLM安全モデレーションフレームワークであるSafetyAnalystを紹介する。
SafetyAnalystは、プロンプトが与えられたら、構造化された「ハームベネフィットツリー」を作成する。
そして、この構造化された表現を有害度スコアに集約する。
論文 参考訳(メタデータ) (2024-10-22T03:38:37Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Towards Quantification of Assurance for Learning-enabled Components [3.0938904602244355]
本稿は, 関連性属性を同定し, 関連性属性と関連する不確実性を定量化することに基づいて, LECの保証という概念を考案する。
非パラメトリックベイズアプローチを用いて、保証の有効な定量的尺度を特定し、関連する不確実性を特徴づける。
また,システムレベルの保証に対するLEC保証の関連性や貢献,アプローチの一般化可能性,関連する課題についても論じる。
論文 参考訳(メタデータ) (2023-01-21T17:34:05Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。