論文の概要: Risk Verification of Stochastic Systems with Neural Network Controllers
- arxiv url: http://arxiv.org/abs/2209.09881v1
- Date: Fri, 26 Aug 2022 20:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 18:01:41.082141
- Title: Risk Verification of Stochastic Systems with Neural Network Controllers
- Title(参考訳): ニューラルネットワーク制御器を用いた確率システムのリスク検証
- Authors: Matthew Cleaveland, Lars Lindemann, Radoslav Ivanov, George Pappas
- Abstract要約: ニューラルネットワーク(NN)コントローラを用いた動的システムのリスク検証のための,データ駆動型フレームワークを提案する。
制御システム,NNコントローラ,トレースロバスト性の概念を備えた仕様が与えられた場合,システムからトラジェクトリを収集する。
NNコントローラが仕様を満たさないリスクを推定するために、これらのロバストネス値のリスクメトリクスを計算します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the fragility of neural network (NN) controllers in
safety-critical applications, we present a data-driven framework for verifying
the risk of stochastic dynamical systems with NN controllers. Given a
stochastic control system, an NN controller, and a specification equipped with
a notion of trace robustness (e.g., constraint functions or signal temporal
logic), we collect trajectories from the system that may or may not satisfy the
specification. In particular, each of the trajectories produces a robustness
value that indicates how well (severely) the specification is satisfied
(violated). We then compute risk metrics over these robustness values to
estimate the risk that the NN controller will not satisfy the specification. We
are further interested in quantifying the difference in risk between two
systems, and we show how the risk estimated from a nominal system can provide
an upper bound the risk of a perturbed version of the system. In particular,
the tightness of this bound depends on the closeness of the systems in terms of
the closeness of their system trajectories. For Lipschitz continuous and
incrementally input-to-state stable systems, we show how to exactly quantify
system closeness with varying degrees of conservatism, while we estimate system
closeness for more general systems from data in our experiments. We demonstrate
our risk verification approach on two case studies, an underwater vehicle and
an F1/10 autonomous car.
- Abstract(参考訳): 安全クリティカルなアプリケーションにおけるニューラルネットワーク(NN)コントローラの脆弱性に触発され、NNコントローラを用いた確率力学系のリスクを検証するためのデータ駆動フレームワークを提案する。
確率制御システム、nnコントローラ、およびトレースロバスト性の概念(例えば制約関数や信号時相論理)を備えた仕様が与えられたとき、我々はその仕様を満たさないかもしれない、あるいは満たさないかもしれないシステムから軌道を収集する。
特に、各軌跡は、仕様がどの程度(頻繁に)満足しているか(違反)を示す頑健な値を生成する。
そして、これらの堅牢性値に対するリスクメトリクスを計算し、nnコントローラが仕様を満たさないリスクを推定します。
我々は,2つのシステム間のリスクの差を定量化することに興味を持ち,また,名目システムから見積もられたリスクが,システムの摂動バージョンのリスクを上限とすることを示す。
特に、この境界の厳密性は、系の軌道の近さの観点から、系の近さに依存する。
リプシッツ連続およびインクリメンタルな入出力安定系では、実験中のデータからより一般的なシステムに対するシステム近接度を推定しながら、様々な保守性でシステムの近接度を正確に定量化する方法を示す。
我々は,水中車両とf1/10自律走行車という2つのケーススタディにおいて,リスク検証アプローチを実証する。
関連論文リスト
- Automatic AI controller that can drive with confidence: steering vehicle with uncertainty knowledge [3.131134048419781]
本研究は,機械学習フレームワークを用いた車両の横方向制御システムの開発に焦点をあてる。
確率論的学習モデルであるベイズニューラルネットワーク(BNN)を用いて不確実性定量化に対処する。
信頼しきい値を確立することで、手動による介入をトリガーし、安全なパラメータの外で動作した場合に、制御がアルゴリズムから解放されることを保証できます。
論文 参考訳(メタデータ) (2024-04-24T23:22:37Z) - System-level Safety Guard: Safe Tracking Control through Uncertain Neural Network Dynamics Models [8.16100000885664]
ニューラルネットワーク(NN)は多くの制御およびロボット工学の応用において検討されている。
本稿では,未知の力学系の軌道追跡の予測モデルとしてNNを利用する。
提案手法は,ロボットナビゲーションや障害物回避シミュレーションにおいて実証的に実証されている。
論文 参考訳(メタデータ) (2023-12-11T19:50:51Z) - Robust Control for Dynamical Systems With Non-Gaussian Noise via Formal
Abstractions [59.605246463200736]
雑音分布の明示的な表現に依存しない新しい制御器合成法を提案する。
まず、連続制御系を有限状態モデルに抽象化し、離散状態間の確率的遷移によってノイズを捕捉する。
我々は最先端の検証技術を用いてマルコフ決定プロセスの間隔を保証し、これらの保証が元の制御システムに受け継がれるコントローラを演算する。
論文 参考訳(メタデータ) (2023-01-04T10:40:30Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Finite-time System Identification and Adaptive Control in Autoregressive
Exogenous Systems [79.67879934935661]
未知のARXシステムのシステム識別と適応制御の問題について検討する。
我々は,オープンループとクローズループの両方のデータ収集の下で,ARXシステムに対する有限時間学習保証を提供する。
論文 参考訳(メタデータ) (2021-08-26T18:00:00Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Formal Verification of Stochastic Systems with ReLU Neural Network
Controllers [22.68044012584378]
reluニューラルネットワーク(nn)コントローラを備えたサイバーフィジカルシステムの形式的安全性検証の問題に対処する。
私たちの目標は、所定の自信を持って、システムが安全でない構成に達しない初期状態のセットを見つけることです。
論文 参考訳(メタデータ) (2021-03-08T23:53:13Z) - Safety Verification of Neural Network Controlled Systems [0.0]
本稿では,ニューラルネットワーク制御システムの安全性を検証するためのシステムレベルのアプローチを提案する。
単純な動作と複雑な動作の両方をキャプチャできるコントローラのジェネリックモデルを想定します。
我々は,システム全体の到達可能な状態を正確に近似する到達可能性解析を行う。
論文 参考訳(メタデータ) (2020-11-10T15:26:38Z) - Learning Stabilizing Controllers for Unstable Linear Quadratic
Regulators from a Single Trajectory [85.29718245299341]
線形2次制御器(LQR)としても知られる2次コストモデルの下で線形制御器を研究する。
楕円形不確実性集合内の全ての系を安定化させる制御器を構成する2つの異なる半定値プログラム(SDP)を提案する。
高い確率で安定化コントローラを迅速に識別できる効率的なデータ依存アルゴリズムであるtextsceXplorationを提案する。
論文 参考訳(メタデータ) (2020-06-19T08:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。