論文の概要: Tight Verification of Probabilistic Robustness in Bayesian Neural
Networks
- arxiv url: http://arxiv.org/abs/2401.11627v2
- Date: Wed, 28 Feb 2024 19:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 18:05:54.964476
- Title: Tight Verification of Probabilistic Robustness in Bayesian Neural
Networks
- Title(参考訳): ベイズニューラルネットワークにおける確率的ロバスト性のタイト検証
- Authors: Ben Batten, Mehran Hosseini, Alessio Lomuscio
- Abstract要約: ベイズニューラルネットワーク(BNN)の確率論的ロバスト性に関する厳密な保証を計算するための2つのアルゴリズムを導入する。
提案アルゴリズムは,反復的拡張とネットワークの勾配を用いて,パラメータの空間を安全に探索する。
アルゴリズムがSoAよりも厳密なバウンダリを計算できることの証明に加えて、標準ベンチマーク上でのSoAに対するアルゴリズムの評価も行っています。
- 参考スコア(独自算出の注目度): 17.499817915644467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce two algorithms for computing tight guarantees on the
probabilistic robustness of Bayesian Neural Networks (BNNs). Computing
robustness guarantees for BNNs is a significantly more challenging task than
verifying the robustness of standard Neural Networks (NNs) because it requires
searching the parameters' space for safe weights. Moreover, tight and complete
approaches for the verification of standard NNs, such as those based on
Mixed-Integer Linear Programming (MILP), cannot be directly used for the
verification of BNNs because of the polynomial terms resulting from the
consecutive multiplication of variables encoding the weights. Our algorithms
efficiently and effectively search the parameters' space for safe weights by
using iterative expansion and the network's gradient and can be used with any
verification algorithm of choice for BNNs. In addition to proving that our
algorithms compute tighter bounds than the SoA, we also evaluate our algorithms
against the SoA on standard benchmarks, such as MNIST and CIFAR10, showing that
our algorithms compute bounds up to 40% tighter than the SoA.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)の確率論的堅牢性に関する厳密な保証を2つのアルゴリズムで計算する。
BNNの堅牢性を保証するコンピューティングは、標準ニューラルネットワーク(NN)の堅牢性を検証するよりもはるかに難しいタスクである。
さらに、MILP(Mixed-Integer Linear Programming)に基づくような標準NNの検証のための厳密で完全なアプローチは、重みを符号化する変数の連続乗算による多項式項のため、直接BNNの検証には使用できない。
提案手法は,反復展開とネットワークの勾配を用いてパラメータ空間を効率的かつ効果的に探索し,bnnに対して任意の検証アルゴリズムを適用できる。
我々のアルゴリズムがSoAよりも厳密な境界を計算することの証明に加えて、MNISTやCIFAR10といった標準ベンチマークでSoAに対してアルゴリズムを評価し、私たちのアルゴリズムがSoAよりも最大40%厳密な境界を計算していることを示す。
関連論文リスト
- Adversarial Robustness Certification for Bayesian Neural Networks [22.71265211510824]
逆入力摂動に対するベイズニューラルネットワーク(BNN)の計算の堅牢性検証問題について検討する。
本フレームワークは, 重み付け, 積分, および有界伝搬技術に基づいており, 多数のパラメータを持つBNNに適用可能である。
論文 参考訳(メタデータ) (2023-06-23T16:58:25Z) - Sparsity May Cry: Let Us Fail (Current) Sparse Neural Networks Together! [100.19080749267316]
Sparsity May Cry"ベンチマーク(SMC-Bench)は、慎重に計算された4つのタスクと10のデータセットのコレクションである。
SMC-Benchは、よりスケーラブルで一般化可能なスパースアルゴリズムの開発を奨励するように設計されている。
論文 参考訳(メタデータ) (2023-03-03T18:47:21Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Mixed Integer Programming Approach for Verifying Properties of
Binarized Neural Networks [44.44006029119672]
BNN検証のための混合整数計画法を提案する。
我々は,MNISTデータセットと航空機衝突回避制御器を用いて訓練したBNNの特性を検証することによって,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2022-03-11T01:11:29Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。