論文の概要: System Safety Monitoring of Learned Components Using Temporal Metric Forecasting
- arxiv url: http://arxiv.org/abs/2405.13254v1
- Date: Tue, 21 May 2024 23:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 01:43:54.131919
- Title: System Safety Monitoring of Learned Components Using Temporal Metric Forecasting
- Title(参考訳): 時空間予測を用いた学習部品のシステム安全モニタリング
- Authors: Sepehr Sharifi, Andrea Stocco, Lionel C. Briand,
- Abstract要約: 学習可能な自律システムにおいて、学習したコンポーネントの安全性監視は、その出力がシステムの安全性違反に結びつかないことを保証するために不可欠である。
本稿では,確率的時系列予測に基づく安全監視手法を提案する。
安全度と違反予測精度を実証的に評価し、4つの最先端モデルの推論遅延とリソース使用率について検討した。
- 参考スコア(独自算出の注目度): 8.76735390039138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In learning-enabled autonomous systems, safety monitoring of learned components is crucial to ensure their outputs do not lead to system safety violations, given the operational context of the system. However, developing a safety monitor for practical deployment in real-world applications is challenging. This is due to limited access to internal workings and training data of the learned component. Furthermore, safety monitors should predict safety violations with low latency, while consuming a reasonable amount of computation. To address the challenges, we propose a safety monitoring method based on probabilistic time series forecasting. Given the learned component outputs and an operational context, we empirically investigate different Deep Learning (DL)-based probabilistic forecasting to predict the objective measure capturing the satisfaction or violation of a safety requirement (safety metric). We empirically evaluate safety metric and violation prediction accuracy, and inference latency and resource usage of four state-of-the-art models, with varying horizons, using an autonomous aviation case study. Our results suggest that probabilistic forecasting of safety metrics, given learned component outputs and scenarios, is effective for safety monitoring. Furthermore, for the autonomous aviation case study, Temporal Fusion Transformer (TFT) was the most accurate model for predicting imminent safety violations, with acceptable latency and resource consumption.
- Abstract(参考訳): 学習可能な自律システムにおいて、学習したコンポーネントの安全監視は、システムの運用状況を考慮すると、そのアウトプットがシステムの安全性違反に結びつかないことを保証するために不可欠である。
しかし、現実のアプリケーションに実際に配置するための安全モニターの開発は困難である。
これは、内部の作業や学習したコンポーネントのトレーニングデータへのアクセスが限られているためです。
さらに、安全モニタは、適切な量の計算を消費しながら、低レイテンシで安全違反を予測する必要がある。
そこで本研究では,確率的時系列予測に基づく安全監視手法を提案する。
学習したコンポーネントのアウトプットと運用状況から、異なるディープラーニング(DL)ベースの確率予測を経験的に検討し、安全要件(安全基準)の満足度や違反を計測する客観的指標を予測する。
自律型航空ケーススタディを用いて、安全度と違反予測精度、および4つの最先端モデルの予測遅延と資源使用率を実験的に評価した。
この結果から, 安全指標の確率的予測が安全監視に有効であることが示唆された。
さらに、自律型航空ケーススタディにおいて、TFT(Temporal Fusion Transformer)は、緊急安全違反を予測するための最も正確なモデルであり、許容レイテンシとリソース消費であった。
関連論文リスト
- Learning Run-time Safety Monitors for Machine Learning Components [8.022333445774382]
本稿では、劣化データセットと機械学習を用いて、機械学習コンポーネントの安全モニタを作成するプロセスを紹介する。
作成した安全モニタは、MLコンポーネントと並行してASにデプロイされ、モデル出力に関連する安全リスクの予測を提供する。
論文 参考訳(メタデータ) (2024-06-23T21:25:06Z) - Safeguarding Learning-based Control for Smart Energy Systems with
Sampling Specifications [0.31498833540989407]
エネルギーシステムの制御における強化学習を用いた課題について検討し,性能要件とは別に,停電回避などの安全性要件も検討した。
実時間時相論理におけるこれらの安全要件が,線形時相論理への離散化によってどのように強化されるのかを詳述する。
論文 参考訳(メタデータ) (2023-08-11T11:09:06Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Context-Aware Safe Reinforcement Learning for Non-Stationary
Environments [24.75527261989899]
現実的なタスクのために強化学習エージェントを展開する場合、安全は重要な問題である。
非定常環境における安全な適応を実現するために,文脈認識型安全強化学習法(CASRL)を提案する。
提案アルゴリズムは,安全性とロバスト性の観点から,既存のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-01-02T23:52:22Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。