論文の概要: Towards Quantification of Assurance for Learning-enabled Components
- arxiv url: http://arxiv.org/abs/2301.08980v1
- Date: Sat, 21 Jan 2023 17:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:31:51.824704
- Title: Towards Quantification of Assurance for Learning-enabled Components
- Title(参考訳): 学習可能なコンポーネントの保証の定量化に向けて
- Authors: Erfan Asaadi and Ewen Denney and Ganesh Pai
- Abstract要約: 本稿は, 関連性属性を同定し, 関連性属性と関連する不確実性を定量化することに基づいて, LECの保証という概念を考案する。
非パラメトリックベイズアプローチを用いて、保証の有効な定量的尺度を特定し、関連する不確実性を特徴づける。
また,システムレベルの保証に対するLEC保証の関連性や貢献,アプローチの一般化可能性,関連する課題についても論じる。
- 参考スコア(独自算出の注目度): 3.0938904602244355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception, localization, planning, and control, high-level functions often
organized in a so-called pipeline, are amongst the core building blocks of
modern autonomous (ground, air, and underwater) vehicle architectures. These
functions are increasingly being implemented using learning-enabled components
(LECs), i.e., (software) components leveraging knowledge acquisition and
learning processes such as deep learning. Providing quantified component-level
assurance as part of a wider (dynamic) assurance case can be useful in
supporting both pre-operational approval of LECs (e.g., by regulators), and
runtime hazard mitigation, e.g., using assurance-based failover configurations.
This paper develops a notion of assurance for LECs based on i) identifying the
relevant dependability attributes, and ii) quantifying those attributes and the
associated uncertainty, using probabilistic techniques. We give a practical
grounding for our work using an example from the aviation domain: an autonomous
taxiing capability for an unmanned aircraft system (UAS), focusing on the
application of LECs as sensors in the perception function. We identify the
applicable quantitative measures of assurance, and characterize the associated
uncertainty using a non-parametric Bayesian approach, namely Gaussian process
regression. We additionally discuss the relevance and contribution of LEC
assurance to system-level assurance, the generalizability of our approach, and
the associated challenges.
- Abstract(参考訳): 認識、ローカライゼーション、計画、制御、いわゆるパイプラインでしばしば組織される高レベルの機能は、現代の自律型(地上、空気、水中)車両アーキテクチャの中核的な構成要素である。
これらの機能は、学習可能なコンポーネント(LEC)、すなわちディープラーニングのような知識獲得や学習プロセスを活用する(ソフトウェア)コンポーネントを使って、ますます実装されている。
より広い(ダイナミックな)保証ケースの一部として、定量化されたコンポーネントレベルの保証を提供することは、LECの事前運用承認(例えば規制当局による)と実行時のハザード軽減(例えば、保証ベースのフェイルオーバー構成)の両方をサポートするのに有用である。
本稿では,LECの保証に関する概念を考案する。
一 関連する信頼性属性の特定及び
二 これらの属性及び関連する不確実性を確率論的手法を用いて定量化すること。
本稿では,無人航空機システム(UAS)の自律タクシー機能として,認識機能におけるセンサーとしてのLECの利用に着目した航空分野の例を用いて,本研究の実践的基盤を提供する。
適用可能な保証の定量的尺度を特定し,非パラメトリックベイズ的アプローチ,すなわちガウス過程回帰を用いて関連する不確かさを特徴付ける。
また,システムレベルの保証に対するLEC保証の関連性や貢献,アプローチの一般化可能性,関連する課題についても論じる。
関連論文リスト
- ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Improving decision-making via risk-based active learning: Probabilistic
discriminative classifiers [0.0]
監視されたシステムの状態に対応する測定データの記述ラベルは、しばしば利用できない。
この問題に対処する1つのアプローチは、リスクベースのアクティブラーニングである。
本論文では,識別モデルを用いた代替型分類器の利点について述べる。
論文 参考訳(メタデータ) (2022-06-23T10:51:42Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Curriculum Learning for Safe Mapless Navigation [71.55718344087657]
本研究は,カリキュラム学習(CL)に基づくアプローチがエージェントのパフォーマンスに与える影響について検討する。
特に、ロボットマップレスナビゲーションの安全性に焦点をあて、標準的なエンドツーエンド(E2E)トレーニング戦略と比較する。
論文 参考訳(メタデータ) (2021-12-23T12:30:36Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Quantifying Assurance in Learning-enabled Systems [3.0938904602244355]
機械学習コンポーネントを組み込んだシステムの依存性保証は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
本稿では, LESが信頼できるという保証の定量的概念を, 保証ケースのコアコンポーネントとして開発する。
本稿では,現実の自律型航空システムへの適用による保証対策の有用性について述べる。
論文 参考訳(メタデータ) (2020-06-18T08:11:50Z) - Probabilistic Guarantees for Safe Deep Reinforcement Learning [6.85316573653194]
深層強化学習は多くの制御タスクにうまく適用されているが、安全上の懸念から、そのようなエージェントの安全クリティカルなシナリオへの応用は制限されている。
そこで我々は, 深層強化学習エージェントの安全性を評価するアルゴリズムMOSAICを提案する。
論文 参考訳(メタデータ) (2020-05-14T15:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。