論文の概要: Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems
- arxiv url: http://arxiv.org/abs/2209.14076v1
- Date: Wed, 28 Sep 2022 13:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:28:34.085128
- Title: Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems
- Title(参考訳): 神経フィードバックループの後方到達性解析:線形および非線形システムのための手法
- Authors: Nicholas Rober, Sydney M. Katz, Chelsea Sidrane, Esen Yel, Michael
Everett, Mykel J. Kochenderfer, Jonathan P. How
- Abstract要約: 本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 59.57462129637796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prevalence of neural networks (NNs) in safety-critical
applications calls for methods to certify safe behavior. This paper presents a
backward reachability approach for safety verification of neural feedback loops
(NFLs), i.e., closed-loop systems with NN control policies. While recent works
have focused on forward reachability as a strategy for safety certification of
NFLs, backward reachability offers advantages over the forward strategy,
particularly in obstacle avoidance scenarios. Prior works have developed
techniques for backward reachability analysis for systems without NNs, but the
presence of NNs in the feedback loop presents a unique set of problems due to
the nonlinearities in their activation functions and because NN models are
generally not invertible. To overcome these challenges, we use existing forward
NN analysis tools to efficiently find an over-approximation of the
backprojection (BP) set, i.e., the set of states for which the NN control
policy will drive the system to a given target set. We present frameworks for
calculating BP over-approximations for both linear and nonlinear systems with
control policies represented by feedforward NNs and propose computationally
efficient strategies. We use numerical results from a variety of models to
showcase the proposed algorithms, including a demonstration of safety
certification for a 6D system.
- Abstract(参考訳): 安全クリティカルなアプリケーションにおけるニューラルネットワーク(NN)の普及は、安全な行動を証明する方法を求めている。
本稿では,ニューラルフィードバックループ(NFL)の安全性検証,すなわちNN制御ポリシを備えた閉ループシステムに対する後方到達性アプローチを提案する。
最近の研究はnflの安全認定戦略としての前方到達性に焦点を当てているが、後方到達性は前方戦略、特に障害物回避シナリオよりも優れている。
以前の研究は、nnを持たないシステムの後方到達可能性解析技術を開発したが、フィードバックループにおけるnnの存在は、その活性化関数の非線形性と、nnモデルが一般に可逆ではないため、ユニークな問題群を示している。
これらの課題を克服するために、既存のフォワードNN分析ツールを使用して、バックプロジェクション(BP)セットの過剰な近似、すなわちNN制御ポリシーが所定のターゲットセットにシステムを駆動する状態の集合を効率的に見つける。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案し、計算効率の良い戦略を提案する。
6次元システムの安全性保証の実証を含む,様々なモデルから得られた数値結果を用いて提案アルゴリズムを実証する。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - Safety Filter Design for Neural Network Systems via Convex Optimization [35.87465363928146]
ニューラルネットワーク(NN)システムの安全性を確保するために,凸最適化に依存する新しい安全フィルタを提案する。
非線形振り子システムにおいて,提案手法の有効性を数値的に示す。
論文 参考訳(メタデータ) (2023-08-16T01:30:13Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Backward Reachability Analysis for Neural Feedback Loops [40.989393438716476]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-14T01:13:14Z) - OVERT: An Algorithm for Safety Verification of Neural Network Control
Policies for Nonlinear Systems [31.3812947670948]
本稿では,ニューラルネットワーク制御ポリシーの安全性検証のための音響アルゴリズムOVERTを提案する。
OVERT の中心的な概念は、最適にきつく片方向の線形境界を持つ非線形関数を抽象化することである。
オーバートは、到達可能な集合の時間的および厳密性の両方において、既存の方法と好意的に比較する。
論文 参考訳(メタデータ) (2021-08-03T00:41:27Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。