論文の概要: Quantifying Assurance in Learning-enabled Systems
- arxiv url: http://arxiv.org/abs/2006.10345v1
- Date: Thu, 18 Jun 2020 08:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 14:35:16.994951
- Title: Quantifying Assurance in Learning-enabled Systems
- Title(参考訳): 学習支援システムにおける保証の定量化
- Authors: Erfan Asaadi, Ewen Denney, Ganesh Pai
- Abstract要約: 機械学習コンポーネントを組み込んだシステムの依存性保証は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
本稿では, LESが信頼できるという保証の定量的概念を, 保証ケースのコアコンポーネントとして開発する。
本稿では,現実の自律型航空システムへの適用による保証対策の有用性について述べる。
- 参考スコア(独自算出の注目度): 3.0938904602244355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dependability assurance of systems embedding machine learning(ML)
components---so called learning-enabled systems (LESs)---is a key step for
their use in safety-critical applications. In emerging standardization and
guidance efforts, there is a growing consensus in the value of using assurance
cases for that purpose. This paper develops a quantitative notion of assurance
that an LES is dependable, as a core component of its assurance case, also
extending our prior work that applied to ML components. Specifically, we
characterize LES assurance in the form of assurance measures: a probabilistic
quantification of confidence that an LES possesses system-level properties
associated with functional capabilities and dependability attributes. We
illustrate the utility of assurance measures by application to a real world
autonomous aviation system, also describing their role both in i) guiding
high-level, runtime risk mitigation decisions and ii) as a core component of
the associated dynamic assurance case.
- Abstract(参考訳): 機械学習(ML)コンポーネントを組み込んだシステムの依存性保証 - いわゆる学習対応システム(LES) - は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
新たな標準化とガイダンスの取り組みでは、その目的のために保証ケースを使用するという価値の合意が高まっている。
本稿では,LESが信頼できるという保証の量的概念を,その保証ケースのコアコンポーネントとして発展させ,MLコンポーネントに適用したこれまでの作業を拡張した。
具体的には,LESが機能的機能や信頼性特性に関連するシステムレベルの特性を有するという信頼性の確率論的定量化という,保証尺度の形式でのLES保証を特徴付ける。
本稿では,実世界の自律飛行システムへの適用による保証措置の有用性を説明し,その役割について述べる。
一 高レベルの実行リスク軽減決定を導出すること。
二 関連するダイナミック・アシュアランス・ケースの中核的な構成要素として
関連論文リスト
- Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Towards Quantification of Assurance for Learning-enabled Components [3.0938904602244355]
本稿は, 関連性属性を同定し, 関連性属性と関連する不確実性を定量化することに基づいて, LECの保証という概念を考案する。
非パラメトリックベイズアプローチを用いて、保証の有効な定量的尺度を特定し、関連する不確実性を特徴づける。
また,システムレベルの保証に対するLEC保証の関連性や貢献,アプローチの一般化可能性,関連する課題についても論じる。
論文 参考訳(メタデータ) (2023-01-21T17:34:05Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Safe Reinforcement Learning via Confidence-Based Filters [78.39359694273575]
我々は,標準的な強化学習技術を用いて学習した名目政策に対して,国家安全の制約を認定するための制御理論的アプローチを開発する。
我々は、正式な安全保証を提供し、我々のアプローチの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2022-07-04T11:43:23Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - The missing link: Developing a safety case for perception components in
automated driving [10.43163823170716]
知覚は自動運転システム(AD)の重要な側面であり、機械学習(ML)に大きく依存している。
MLベースのコンポーネントの安全性を保証するという既知の課題にもかかわらず、最近、これらのコンポーネントに対処するユニットレベルの安全ケースの提案が登場した。
本稿では、知覚成分に特化して調整されたリンク引数に対する汎用テンプレートを提案する。
論文 参考訳(メタデータ) (2021-08-30T15:12:27Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z) - SafeML: Safety Monitoring of Machine Learning Classifiers through
Statistical Difference Measure [1.2599533416395765]
本稿では,MLシステムの運用において,単一の保護概念内での安全性とセキュリティの両面に対処することを目的とする。
本研究では,経験的累積分布関数(ECDF)の距離測定値を用いて,データ駆動システムの動作と運用状況を監視する。
予備的な知見は,MLコンポーネントのアプリケーションコンテキストが安全性に有効であるかどうかを検知するための基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-05-27T05:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。