論文の概要: Infinite Time Horizon Safety of Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2111.03165v1
- Date: Thu, 4 Nov 2021 21:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:49:37.087777
- Title: Infinite Time Horizon Safety of Bayesian Neural Networks
- Title(参考訳): ベイズニューラルネットワークの無限時間水平安全性
- Authors: Mathias Lechner, {\DJ}or{\dj}e \v{Z}ikeli\'c, Krishnendu Chatterjee,
Thomas A. Henzinger
- Abstract要約: ベイジアンニューラルネットワークポリシーを無限時間水平系のフィードバックループで実行する場合の安全性検証の問題点を考察する。
既存のサンプリングベースアプローチと比較して、無限時間地平線安全証明書として機能する、別個の決定論的ニューラルネットワークをトレーニングする。
- 参考スコア(独自算出の注目度): 17.558766911646263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian neural networks (BNNs) place distributions over the weights of a
neural network to model uncertainty in the data and the network's prediction.
We consider the problem of verifying safety when running a Bayesian neural
network policy in a feedback loop with infinite time horizon systems. Compared
to the existing sampling-based approaches, which are inapplicable to the
infinite time horizon setting, we train a separate deterministic neural network
that serves as an infinite time horizon safety certificate. In particular, we
show that the certificate network guarantees the safety of the system over a
subset of the BNN weight posterior's support. Our method first computes a safe
weight set and then alters the BNN's weight posterior to reject samples outside
this set. Moreover, we show how to extend our approach to a safe-exploration
reinforcement learning setting, in order to avoid unsafe trajectories during
the training of the policy. We evaluate our approach on a series of
reinforcement learning benchmarks, including non-Lyapunovian safety
specifications.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)は、ニューラルネットワークの重みに分布を置き、データの不確実性とネットワークの予測をモデル化する。
ベイジアンニューラルネットワークポリシーを無限時間水平系のフィードバックループで実行する場合の安全性検証の問題点を考察する。
無限時間地平線設定には適用できない既存のサンプリングベースアプローチと比較して、無限時間地平線安全証明書として機能する別個の決定論的ニューラルネットワークを訓練する。
特に,認証ネットワークは,BNNの重み付きサポートのサブセットよりもシステムの安全性を保証していることを示す。
提案手法は,まず安全な重み集合を計算し,次にBNNの重み後部を変更して,この集合外のサンプルを拒絶する。
さらに,政策の訓練中,安全でない軌道を避けるために,安全探索強化学習環境へのアプローチをいかに拡張するかを示す。
我々は,非ルクセンブルクの安全仕様を含む一連の強化学習ベンチマークに対するアプローチを評価する。
関連論文リスト
- The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Backward Reachability Analysis for Neural Feedback Loops [40.989393438716476]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
本稿では,BP設定した推定値を所定の時間軸上で反復的に求めるアルゴリズムを提案し,計算コストを低くすることで,保守性を最大88%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-14T01:13:14Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Evaluating the Robustness of Bayesian Neural Networks Against Different
Types of Attacks [2.599882743586164]
ベイズニューラルネットワークは, 決定論的ニューラルネットワークモデルに対して発生する敵攻撃に対して, はるかに高い堅牢性を達成することを示す。
後肢は、現在進行中の悪意ある活動の安全前駆体として機能する。
これは、安全クリティカルなドメイン内の意思決定パイプライン構築におけるレイヤの利用を推奨する。
論文 参考訳(メタデータ) (2021-06-17T03:18:59Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Probabilistic Safety for Bayesian Neural Networks [22.71265211510824]
逆入力摂動下でのベイズニューラルネットワーク(BNN)の確率論的安全性について検討する。
特に,BNNからサンプリングしたネットワークが敵攻撃に対して脆弱であることを示す。
そこで本手法は,BNNの確率論的安全性を数百万のパラメータで証明できることを実証的に示し,課題の回避を訓練したBNNに適用する。
論文 参考訳(メタデータ) (2020-04-21T20:25:33Z) - Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural
Network Controllers via Semidefinite Programming [19.51345816555571]
本稿では,ニューラルネットワークを用いた線形時間変化システムの安全性検証のための新しいフォワードリーチビリティ解析手法を提案する。
半有限計画法を用いて、これらの近似到達可能な集合を計算できることが示される。
提案手法は,まずディープニューラルネットワークを用いて非線形モデル予測制御器を近似し,その解析ツールを用いて閉ループシステムの有限時間到達性と制約満足度を証明した。
論文 参考訳(メタデータ) (2020-04-16T18:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。