論文の概要: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- arxiv url: http://arxiv.org/abs/2006.09564v1
- Date: Tue, 16 Jun 2020 23:38:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:55:15.579542
- Title: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- Title(参考訳): ShieldNN: 安全でないNNコントローラのためのおそらく安全なNNフィルタ
- Authors: James Ferlez and Mahmoud Elnaggar and Yasser Shoukry and Cody Fleming
- Abstract要約: KBM(Continuous-time Kinematic Bicycle Model)の入力を安全に制御するNNフィルタを合成するアルゴリズムを提案する。
ShieldNNには2つの新しいコントリビューションがある: 1つは、KBMモデルのための新しいバリア関数(BF)に基づいており、もう1つは、安全を保証した安全フィルタNNの設計にこのBFを利用する証明可能な健全なアルゴリズムである。
- 参考スコア(独自算出の注目度): 5.161531917413708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of creating a safe-by-design Rectified
Linear Unit (ReLU) Neural Network (NN), which, when composed with an arbitrary
control NN, makes the composition provably safe. In particular, we propose an
algorithm to synthesize such NN filters that safely correct control inputs
generated for the continuous-time Kinematic Bicycle Model (KBM). ShieldNN
contains two main novel contributions: first, it is based on a novel Barrier
Function (BF) for the KBM model; and second, it is itself a provably sound
algorithm that leverages this BF to a design a safety filter NN with safety
guarantees. Moreover, since the KBM is known to well approximate the dynamics
of four-wheeled vehicles, we show the efficacy of ShieldNN filters in CARLA
simulations of four-wheeled vehicles. In particular, we examined the effect of
ShieldNN filters on Deep Reinforcement Learning trained controllers in the
presence of individual pedestrian obstacles. The safety properties of ShieldNN
were borne out in our experiments: the ShieldNN filter reduced the number of
obstacle collisions by 99.4%-100%. Furthermore, we also studied the effect of
incorporating ShieldNN during training: for a constant number of episodes, 28%
less reward was observed when ShieldNN wasn't used during training. This
suggests that ShieldNN has the further property of improving sample efficiency
during RL training.
- Abstract(参考訳): 本稿では,任意の制御NNを組み込んだセキュア・バイ・デザイナ・リニア・ユニット(ReLU)ニューラルネットワーク(NN)を構築する際の問題点について考察する。
特に,連続時間運動自転車モデル(kbm)で生成された制御入力を安全に補正するnnフィルタを合成するアルゴリズムを提案する。
ShieldNNには2つの新しいコントリビューションがある: 1つは、KBMモデルのための新しいバリア関数(BF)に基づいており、もう1つは、安全を保証した安全フィルタNNの設計にこのBFを利用する証明可能な健全なアルゴリズムである。
さらに、KBMは四輪車の力学をよく近似することが知られているので、四輪車のCARLAシミュレーションにおけるシールドNNフィルタの有効性を示す。
特に,個々の歩行者障害物の存在下での深層強化学習におけるシールドNNフィルタの効果について検討した。
ShieldNNフィルタは障害物衝突数を99.4%-100%削減した。
さらに,トレーニング中にShieldNNを取り入れることの効果についても検討した。訓練中にShieldNNを使わなかった場合,一定の回数のエピソードに対して28%の報酬が得られた。
これは、ShieldNNがRLトレーニング中にサンプル効率を改善するというさらなる特性を持っていることを示唆している。
関連論文リスト
- Real-Time Safe Control of Neural Network Dynamic Models with Sound Approximation [11.622680091231393]
本稿では,ニューラル・ネットワーク・ダイナミック・モデル(NNDM)の音響近似を制御合成に用いることを提案する。
近似による誤差を軽減し、安全制御問題の持続可能性を確保する。
異なる神経力学と安全性の制約による実験では、安全が保証された場合、音近似のNNDMは安全制御ベースラインの10~100倍高速であることが示されている。
論文 参考訳(メタデータ) (2024-04-20T19:51:29Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Approximate Model-Based Shielding for Safe Reinforcement Learning [83.55437924143615]
本稿では,学習したRLポリシーの性能を検証するための,原則的ルックアヘッド遮蔽アルゴリズムを提案する。
我々のアルゴリズムは他の遮蔽手法と異なり、システムの安全性関連力学の事前知識を必要としない。
我々は,国家依存型安全ラベルを持つアタリゲームにおいて,他の安全を意識したアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-27T15:19:45Z) - Reachability Analysis of Neural Network Control Systems [10.023618778236697]
ニューラルネットワーク制御システム(NNCS)の既存の検証アプローチは、限られたタイプのアクティベーション機能でのみ機能する。
本稿では,DeepNNCと呼ばれるリプシッツ最適化に基づくNNCSの検証フレームワークを提案する。
DeepNNCは、幅広いNNCよりも効率と精度の点で優れた性能を示している。
論文 参考訳(メタデータ) (2023-01-28T05:57:37Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Learning Safe Neural Network Controllers with Barrier Certificates [6.323932479962133]
非線形連続力学系に対する制御系を合成するための新しい手法を提案する。
コントローラはニューラルネットワーク(NN)に基づいている
コントローラ-NNとバリア-NNを同時にトレーニングし、ループ内の検証合成を実現する。
論文 参考訳(メタデータ) (2020-09-18T14:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。