論文の概要: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- arxiv url: http://arxiv.org/abs/2006.09564v1
- Date: Tue, 16 Jun 2020 23:38:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:55:15.579542
- Title: ShieldNN: A Provably Safe NN Filter for Unsafe NN Controllers
- Title(参考訳): ShieldNN: 安全でないNNコントローラのためのおそらく安全なNNフィルタ
- Authors: James Ferlez and Mahmoud Elnaggar and Yasser Shoukry and Cody Fleming
- Abstract要約: KBM(Continuous-time Kinematic Bicycle Model)の入力を安全に制御するNNフィルタを合成するアルゴリズムを提案する。
ShieldNNには2つの新しいコントリビューションがある: 1つは、KBMモデルのための新しいバリア関数(BF)に基づいており、もう1つは、安全を保証した安全フィルタNNの設計にこのBFを利用する証明可能な健全なアルゴリズムである。
- 参考スコア(独自算出の注目度): 5.161531917413708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of creating a safe-by-design Rectified
Linear Unit (ReLU) Neural Network (NN), which, when composed with an arbitrary
control NN, makes the composition provably safe. In particular, we propose an
algorithm to synthesize such NN filters that safely correct control inputs
generated for the continuous-time Kinematic Bicycle Model (KBM). ShieldNN
contains two main novel contributions: first, it is based on a novel Barrier
Function (BF) for the KBM model; and second, it is itself a provably sound
algorithm that leverages this BF to a design a safety filter NN with safety
guarantees. Moreover, since the KBM is known to well approximate the dynamics
of four-wheeled vehicles, we show the efficacy of ShieldNN filters in CARLA
simulations of four-wheeled vehicles. In particular, we examined the effect of
ShieldNN filters on Deep Reinforcement Learning trained controllers in the
presence of individual pedestrian obstacles. The safety properties of ShieldNN
were borne out in our experiments: the ShieldNN filter reduced the number of
obstacle collisions by 99.4%-100%. Furthermore, we also studied the effect of
incorporating ShieldNN during training: for a constant number of episodes, 28%
less reward was observed when ShieldNN wasn't used during training. This
suggests that ShieldNN has the further property of improving sample efficiency
during RL training.
- Abstract(参考訳): 本稿では,任意の制御NNを組み込んだセキュア・バイ・デザイナ・リニア・ユニット(ReLU)ニューラルネットワーク(NN)を構築する際の問題点について考察する。
特に,連続時間運動自転車モデル(kbm)で生成された制御入力を安全に補正するnnフィルタを合成するアルゴリズムを提案する。
ShieldNNには2つの新しいコントリビューションがある: 1つは、KBMモデルのための新しいバリア関数(BF)に基づいており、もう1つは、安全を保証した安全フィルタNNの設計にこのBFを利用する証明可能な健全なアルゴリズムである。
さらに、KBMは四輪車の力学をよく近似することが知られているので、四輪車のCARLAシミュレーションにおけるシールドNNフィルタの有効性を示す。
特に,個々の歩行者障害物の存在下での深層強化学習におけるシールドNNフィルタの効果について検討した。
ShieldNNフィルタは障害物衝突数を99.4%-100%削減した。
さらに,トレーニング中にShieldNNを取り入れることの効果についても検討した。訓練中にShieldNNを使わなかった場合,一定の回数のエピソードに対して28%の報酬が得られた。
これは、ShieldNNがRLトレーニング中にサンプル効率を改善するというさらなる特性を持っていることを示唆している。
関連論文リスト
- Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - Learning Safe Neural Network Controllers with Barrier Certificates [6.323932479962133]
非線形連続力学系に対する制御系を合成するための新しい手法を提案する。
コントローラはニューラルネットワーク(NN)に基づいている
コントローラ-NNとバリア-NNを同時にトレーニングし、ループ内の検証合成を実現する。
論文 参考訳(メタデータ) (2020-09-18T14:55:55Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。