論文の概要: Probabilistic Safety for Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2004.10281v2
- Date: Fri, 19 Jun 2020 02:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:12:32.856576
- Title: Probabilistic Safety for Bayesian Neural Networks
- Title(参考訳): ベイズニューラルネットワークの確率論的安全性
- Authors: Matthew Wicker, Luca Laurenti, Andrea Patane, Marta Kwiatkowska
- Abstract要約: 逆入力摂動下でのベイズニューラルネットワーク(BNN)の確率論的安全性について検討する。
特に,BNNからサンプリングしたネットワークが敵攻撃に対して脆弱であることを示す。
そこで本手法は,BNNの確率論的安全性を数百万のパラメータで証明できることを実証的に示し,課題の回避を訓練したBNNに適用する。
- 参考スコア(独自算出の注目度): 22.71265211510824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study probabilistic safety for Bayesian Neural Networks (BNNs) under
adversarial input perturbations. Given a compact set of input points, $T
\subseteq \mathbb{R}^m$, we study the probability w.r.t. the BNN posterior that
all the points in $T$ are mapped to the same region $S$ in the output space. In
particular, this can be used to evaluate the probability that a network sampled
from the BNN is vulnerable to adversarial attacks. We rely on relaxation
techniques from non-convex optimization to develop a method for computing a
lower bound on probabilistic safety for BNNs, deriving explicit procedures for
the case of interval and linear function propagation techniques. We apply our
methods to BNNs trained on a regression task, airborne collision avoidance, and
MNIST, empirically showing that our approach allows one to certify
probabilistic safety of BNNs with millions of parameters.
- Abstract(参考訳): 逆入力摂動下でのベイズニューラルネットワーク(BNN)の確率論的安全性について検討する。
入力点のコンパクトな集合である$T \subseteq \mathbb{R}^m$ が与えられたとき、BNN後続の確率 w.r.t. で、$T$ のすべての点が出力空間の同じ領域 $S$ に写像される。
特に、これはBNNからサンプリングされたネットワークが敵攻撃に対して脆弱である確率を評価するために用いられる。
我々は,BNNの確率的安全性を低く計算する手法を開発するために,非凸最適化からの緩和手法を頼りにしており,間隔や線形関数伝搬の場合に明確な手順を導出する。
本手法は, 航空機衝突回避, およびMNISTで訓練されたBNNに対して適用し, 数百万のパラメータでBNNの確率的安全性を証明できることを実証的に示す。
関連論文リスト
- Fast and Reliable $N-k$ Contingency Screening with Input-Convex Neural Networks [3.490170135411753]
電力系統のオペレータは、グリッドの停止や障害の防止や信頼性の高い運用を保証するために、ディスパッチ決定が実行可能であることを保証しなければなりません。
たとえ小さな$k$グリッドコンポーネントであっても、すべての$N - k$コンセントの実現可能性を確認する。
本研究では,入力カスケード型ニューラルネットワーク(ICNN)を用いた同時スクリーニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-01T15:38:09Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Adversarial Robustness Certification for Bayesian Neural Networks [22.71265211510824]
逆入力摂動に対するベイズニューラルネットワーク(BNN)の計算の堅牢性検証問題について検討する。
本フレームワークは, 重み付け, 積分, および有界伝搬技術に基づいており, 多数のパラメータを持つBNNに適用可能である。
論文 参考訳(メタデータ) (2023-06-23T16:58:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。