論文の概要: Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2111.08591v1
- Date: Tue, 16 Nov 2021 16:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:11:07.197925
- Title: Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks
- Title(参考訳): ホワイトボックス攻撃に対するベイズニューラルネットワークのロバスト性
- Authors: Adaku Uchendu, Daniel Campoy, Christopher Menart, and Alexandra
Hildenbrandt
- Abstract要約: ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
- 参考スコア(独自算出の注目度): 55.531896312724555
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bayesian Neural Networks (BNNs), unlike Traditional Neural Networks (TNNs)
are robust and adept at handling adversarial attacks by incorporating
randomness. This randomness improves the estimation of uncertainty, a feature
lacking in TNNs. Thus, we investigate the robustness of BNNs to white-box
attacks using multiple Bayesian neural architectures. Furthermore, we create
our BNN model, called BNN-DenseNet, by fusing Bayesian inference (i.e.,
variational Bayes) to the DenseNet architecture, and BDAV, by combining this
intervention with adversarial training. Experiments are conducted on the
CIFAR-10 and FGVC-Aircraft datasets. We attack our models with strong white-box
attacks ($l_\infty$-FGSM, $l_\infty$-PGD, $l_2$-PGD, EOT $l_\infty$-FGSM, and
EOT $l_\infty$-PGD). In all experiments, at least one BNN outperforms
traditional neural networks during adversarial attack scenarios. An
adversarially-trained BNN outperforms its non-Bayesian, adversarially-trained
counterpart in most experiments, and often by significant margins. Lastly, we
investigate network calibration and find that BNNs do not make overconfident
predictions, providing evidence that BNNs are also better at measuring
uncertainty.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)は、従来のニューラルネットワーク(TNN)とは異なり、ランダム性を取り入れて敵の攻撃を処理するのに堅牢で適している。
このランダム性は、TNNに欠けている不確実性の推定を改善する。
そこで本研究では,複数のベイズニューラルネットワークアーキテクチャを用いて,BNNのホワイトボックス攻撃に対する堅牢性について検討する。
さらに、BNN-DenseNetと呼ばれるBNNモデルを作成し、ベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャとBDAVに融合させ、この介入と敵の訓練を組み合わせる。
CIFAR-10とFGVC-Aircraftのデータセットで実験が行われた。
強力なホワイトボックス攻撃(l_\infty$-FGSM, $l_\infty$-PGD, $l_2$-PGD, EOT $l_\infty$-FGSM, EOT $l_\infty$-PGD)で攻撃する。
すべての実験において、少なくとも1つのbnnは、敵の攻撃シナリオにおいて従来のニューラルネットワークを上回っている。
敵対的に訓練されたbnnは、多くの実験で非ベイズ的で敵対的に訓練されたbnnよりも優れており、しばしばかなりのマージンがある。
最後に、ネットワークキャリブレーションを調査し、BNNが過信予測をしていないことを発見し、BNNが不確実性の測定にも優れていることを示す。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Attacking Bayes: On the Adversarial Robustness of Bayesian Neural Networks [10.317475068017961]
我々は,最先端のBNN推論手法と予測パイプラインを破ることが可能であるか検討する。
我々は、最先端の近似推論手法で訓練されたBNNや、ハミルトン・モンテカルロで訓練されたBNNでさえ、敵の攻撃に非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T01:34:46Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - ARBiBench: Benchmarking Adversarial Robustness of Binarized Neural
Networks [22.497327185841232]
ネットワークビナライゼーションは、計算コストの低いリソース制約されたデバイスに展開する大きな可能性を示す。
重要な重要性にもかかわらず、バイナライズされたニューラルネットワーク(BNN)のセキュリティはめったに調査されない。
敵の摂動に対するBNNの堅牢性を評価するための総合的なベンチマークであるARBiBenchを提案する。
論文 参考訳(メタデータ) (2023-12-21T04:48:34Z) - Attacking the Spike: On the Transferability and Security of Spiking
Neural Networks to Adversarial Examples [19.227133993690504]
スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と近年の分類性能の進歩に多くの注目を集めている。
従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
我々は,SNNに対するホワイトボックス攻撃の成功は,下層のサロゲート勾配技術に大きく依存していることを示す。
論文 参考訳(メタデータ) (2022-09-07T17:05:48Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization [92.23297927690149]
バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
論文 参考訳(メタデータ) (2021-04-16T16:46:57Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。