論文の概要: Backward Reachability Analysis for Neural Feedback Loops
- arxiv url: http://arxiv.org/abs/2204.08319v1
- Date: Thu, 14 Apr 2022 01:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:02:02.965018
- Title: Backward Reachability Analysis for Neural Feedback Loops
- Title(参考訳): 神経フィードバックループの後方到達性解析
- Authors: Nicholas Rober, Michael Everett, Jonathan P. How
- Abstract要約: 本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
- 参考スコア(独自算出の注目度): 40.989393438716476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prevalence of neural networks (NNs) in safety-critical
applications calls for methods to certify their behavior and guarantee safety.
This paper presents a backward reachability approach for safety verification of
neural feedback loops (NFLs), i.e., closed-loop systems with NN control
policies. While recent works have focused on forward reachability as a strategy
for safety certification of NFLs, backward reachability offers advantages over
the forward strategy, particularly in obstacle avoidance scenarios. Prior works
have developed techniques for backward reachability analysis for systems
without NNs, but the presence of NNs in the feedback loop presents a unique set
of problems due to the nonlinearities in their activation functions and because
NN models are generally not invertible. To overcome these challenges, we use
existing forward NN analysis tools to find affine bounds on the control inputs
and solve a series of linear programs (LPs) to efficiently find an
approximation of the backprojection (BP) set, i.e., the set of states for which
the NN control policy will drive the system to a given target set. We present
an algorithm to iteratively find BP set estimates over a given time horizon and
demonstrate the ability to reduce conservativeness in the BP set estimates by
up to 88% with low additional computational cost. We use numerical results from
a double integrator model to verify the efficacy of these algorithms and
demonstrate the ability to certify safety for a linearized ground robot model
in a collision avoidance scenario where forward reachability fails.
- Abstract(参考訳): 安全クリティカルなアプリケーションにおけるニューラルネットワーク(NN)の普及は、その振る舞いを認証し、安全性を保証する方法を求めている。
本稿では,ニューラルフィードバックループ(NFL)の安全性検証,すなわちNN制御ポリシを備えた閉ループシステムに対する後方到達性アプローチを提案する。
最近の研究はnflの安全認定戦略としての前方到達性に焦点を当てているが、後方到達性は前方戦略、特に障害物回避シナリオよりも優れている。
以前の研究は、nnを持たないシステムの後方到達可能性解析技術を開発したが、フィードバックループにおけるnnの存在は、その活性化関数の非線形性と、nnモデルが一般に可逆ではないため、ユニークな問題群を示している。
これらの課題を克服するために、既存の前方NN分析ツールを用いて制御入力のアフィン境界を見つけ、一連の線形プログラム(LP)を解き、バックプロジェクション(BP)セットの近似、すなわちNN制御ポリシが所定のターゲットセットにシステムを駆動する状態の集合を効率的に見つける。
我々は,与えられた時間軸上のbp集合推定を反復的に発見するアルゴリズムを示し,計算コストを低くしてbp集合推定の保守性を最大88%削減する能力を示す。
これらのアルゴリズムの有効性を検証するために, 二重積分器モデルを用いた数値実験を行い, 衝突回避シナリオにおいて, 衝突回避シナリオにおいて, 線形地上ロボットモデルの安全性を検証できることを示す。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - DRIP: Domain Refinement Iteration with Polytopes for Backward
Reachability Analysis of Neural Feedback Loops [12.706980346861986]
本研究では,ニューラルネットワーク(NN)ポリシによって制御されるシステムに対して,衝突回避保証を提供するフレームワークとしての後方到達性について検討する。
NNは典型的には可逆ではないため、既存の手法ではNNを緩和する領域を前提としており、状態の集合を緩やかに過度に近似させる。
本稿では、緩和領域に洗練されたループを持つアルゴリズムDRIPを導入し、BP集合の境界をかなり厳しくする。
論文 参考訳(メタデータ) (2022-12-09T03:06:58Z) - Safety Verification for Neural Networks Based on Set-boundary Analysis [5.487915758677295]
ニューラルネットワーク(NN)は、自動運転車のような安全クリティカルなシステムにますます適用されている。
本稿では, NNの安全性検証問題に対するトポロジ的視点から検討するための, 集合境界到達可能性法を提案する。
論文 参考訳(メタデータ) (2022-10-09T05:55:37Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Robustness Analysis of Neural Networks via Efficient Partitioning with
Applications in Control Systems [45.35808135708894]
ニューラルネットワーク(NN)は現在、不確実な環境で動作しなければならないシステムに定期的に実装されている。
本稿では、ロバストネス解析アルゴリズムのファミリを提供するために、伝播と分割のアプローチを統合する。
新しいパーティショニング技術は、現在の境界推定値と望ましい境界形状を認識している。
論文 参考訳(メタデータ) (2020-10-01T16:51:36Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。