論文の概要: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- arxiv url: http://arxiv.org/abs/2006.09564v2
- Date: Mon, 14 Oct 2024 17:35:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:57:16.779363
- Title: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- Title(参考訳): ShieldNN: 安全でないNNコントローラのためのおそらく安全なNNフィルタ
- Authors: James Ferlez, Mahmoud Elnaggar, Yasser Shoukry, Cody Fleming,
- Abstract要約: 我々は、KBM(Kinematic Bicycle Model)のための新しいクローズドフォーム制御バリア関数(CBF)と関連するコントローラシールドを開発する。
ShieldNNは、非アフィンKBMダイナミクスと直接、ステアリングとベロシティの制約について検討している。
実験により,ShieldNNは複数の障害物が存在する場合のRLトレーニングエピソードの完了率を劇的に向上させることを示した。
- 参考スコア(独自算出の注目度): 2.227417514684251
- License:
- Abstract: In this paper, we develop a novel closed-form Control Barrier Function (CBF) and associated controller shield for the Kinematic Bicycle Model (KBM) with respect to obstacle avoidance. The proposed CBF and shield -- designed by an algorithm we call ShieldNN -- provide two crucial advantages over existing methodologies. First, ShieldNN considers steering and velocity constraints directly with the non-affine KBM dynamics; this is in contrast to more general methods, which typically consider only affine dynamics and do not guarantee invariance properties under control constraints. Second, ShieldNN provides a closed-form set of safe controls for each state unlike more general methods, which typically rely on optimization algorithms to generate a single instantaneous for each state. Together, these advantages make ShieldNN uniquely suited as an efficient Multi-Obstacle Safe Actions (i.e. multiple-barrier-function shielding) during training time of a Reinforcement Learning (RL) enabled NN controller. We show via experiments that ShieldNN dramatically increases the completion rate of RL training episodes in the presence of multiple obstacles, thus establishing the value of ShieldNN in training RL-based controllers.
- Abstract(参考訳): 本稿では, 障害物回避に関して, KBM (Kinematic Bicycle Model) のための新しいクローズドフォーム制御バリア機能 (CBF) と関連するコントローラシールドを開発する。
ShieldNNと呼ばれるアルゴリズムによって設計された提案されたCBFとシールドは、既存の方法論よりも2つの重要なアドバンテージを提供します。
まず、ShieldNNは非アフィンKBM力学と直接にステアリングと速度の制約を考えるが、これはより一般的な手法とは対照的であり、通常はアフィン力学のみを考慮し、制御制約の下での不変性を保証しない。
第二に、ShieldNNはより一般的な方法とは異なり、各ステートに対してクローズドな安全なコントロールセットを提供する。
これらの利点により、シールドNNは強化学習(RL)を有効にしたNNコントローラのトレーニング時間において、効率的なマルチオブスタクルセーフアクション(つまり、マルチバリア機能シールド)として一意に適合する。
実験により,ShieldNNは複数の障害物が存在する場合のRLトレーニングエピソードの完了率を劇的に向上させ,RLベースコントローラのトレーニングにおけるShieldNNの価値を確立できることを示す。
関連論文リスト
- Real-Time Safe Control of Neural Network Dynamic Models with Sound Approximation [11.622680091231393]
本稿では,ニューラル・ネットワーク・ダイナミック・モデル(NNDM)の音響近似を制御合成に用いることを提案する。
近似による誤差を軽減し、安全制御問題の持続可能性を確保する。
異なる神経力学と安全性の制約による実験では、安全が保証された場合、音近似のNNDMは安全制御ベースラインの10~100倍高速であることが示されている。
論文 参考訳(メタデータ) (2024-04-20T19:51:29Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Approximate Model-Based Shielding for Safe Reinforcement Learning [83.55437924143615]
本稿では,学習したRLポリシーの性能を検証するための,原則的ルックアヘッド遮蔽アルゴリズムを提案する。
我々のアルゴリズムは他の遮蔽手法と異なり、システムの安全性関連力学の事前知識を必要としない。
我々は,国家依存型安全ラベルを持つアタリゲームにおいて,他の安全を意識したアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-27T15:19:45Z) - Reachability Analysis of Neural Network Control Systems [10.023618778236697]
ニューラルネットワーク制御システム(NNCS)の既存の検証アプローチは、限られたタイプのアクティベーション機能でのみ機能する。
本稿では,DeepNNCと呼ばれるリプシッツ最適化に基づくNNCSの検証フレームワークを提案する。
DeepNNCは、幅広いNNCよりも効率と精度の点で優れた性能を示している。
論文 参考訳(メタデータ) (2023-01-28T05:57:37Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Learning Safe Neural Network Controllers with Barrier Certificates [6.323932479962133]
非線形連続力学系に対する制御系を合成するための新しい手法を提案する。
コントローラはニューラルネットワーク(NN)に基づいている
コントローラ-NNとバリア-NNを同時にトレーニングし、ループ内の検証合成を実現する。
論文 参考訳(メタデータ) (2020-09-18T14:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。