論文の概要: ARBiBench: Benchmarking Adversarial Robustness of Binarized Neural
Networks
- arxiv url: http://arxiv.org/abs/2312.13575v1
- Date: Thu, 21 Dec 2023 04:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 15:50:04.102306
- Title: ARBiBench: Benchmarking Adversarial Robustness of Binarized Neural
Networks
- Title(参考訳): ARBiBench: バイナリニューラルネットワークの逆ロバスト性のベンチマーク
- Authors: Peng Zhao and Jiehua Zhang and Bowen Peng and Longguang Wang and
YingMei Wei and Yu Liu and Li Liu
- Abstract要約: ネットワークビナライゼーションは、計算コストの低いリソース制約されたデバイスに展開する大きな可能性を示す。
重要な重要性にもかかわらず、バイナライズされたニューラルネットワーク(BNN)のセキュリティはめったに調査されない。
敵の摂動に対するBNNの堅牢性を評価するための総合的なベンチマークであるARBiBenchを提案する。
- 参考スコア(独自算出の注目度): 22.497327185841232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network binarization exhibits great potential for deployment on
resource-constrained devices due to its low computational cost. Despite the
critical importance, the security of binarized neural networks (BNNs) is rarely
investigated. In this paper, we present ARBiBench, a comprehensive benchmark to
evaluate the robustness of BNNs against adversarial perturbations on CIFAR-10
and ImageNet. We first evaluate the robustness of seven influential BNNs on
various white-box and black-box attacks. The results reveal that 1) The
adversarial robustness of BNNs exhibits a completely opposite performance on
the two datasets under white-box attacks. 2) BNNs consistently exhibit better
adversarial robustness under black-box attacks. 3) Different BNNs exhibit
certain similarities in their robustness performance. Then, we conduct
experiments to analyze the adversarial robustness of BNNs based on these
insights. Our research contributes to inspiring future research on enhancing
the robustness of BNNs and advancing their application in real-world scenarios.
- Abstract(参考訳): ネットワークビナライゼーションは、計算コストの低いリソース制約されたデバイスに展開する大きな可能性を示す。
重要にもかかわらず、バイナライズニューラルネットワーク(BNN)のセキュリティについてはほとんど調査されていない。
本稿では,CIFAR-10とImageNetの対向摂動に対するBNNの堅牢性を評価するための総合ベンチマークARBiBenchを提案する。
まず,白箱攻撃と黒箱攻撃に対する7つの影響力のあるBNNのロバスト性を評価する。
その結果は
1) BNNの敵対的堅牢性は, ホワイトボックス攻撃下での2つのデータセットに対して, 全く逆のパフォーマンスを示す。
2) BNN はブラックボックス攻撃において, より優れた敵の堅牢性を示す。
3) 異なるBNNは, 強靭性性能に一定の類似性を示す。
次に,これらの知見に基づいてbnnの対向的ロバスト性を分析する実験を行う。
本研究は,BNNの堅牢性を向上し,現実のシナリオにおけるその応用を推し進めるための今後の研究に寄与する。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Enhancing Adversarial Robustness in SNNs with Sparse Gradients [46.15229142258264]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率の高い操作と生物学的にインスパイアされた構造に対して大きな注目を集めている。
既存の技術は、ANNから適応したものであれ、SNNのために特別に設計されたものであれ、SNNの訓練や強力な攻撃に対する防御に制限がある。
本稿では,SNNの頑健性を高めるための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T05:39:27Z) - Attacking Bayes: On the Adversarial Robustness of Bayesian Neural Networks [10.317475068017961]
我々は,最先端のBNN推論手法と予測パイプラインを破ることが可能であるか検討する。
我々は、最先端の近似推論手法で訓練されたBNNや、ハミルトン・モンテカルロで訓練されたBNNでさえ、敵の攻撃に非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T01:34:46Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - BDD4BNN: A BDD-based Quantitative Analysis Framework for Binarized
Neural Networks [7.844146033635129]
一般実数ニューラルネットワークの1ビット量子化であるBinarized Neural Networks(BNNs)の検証問題について検討する。
我々のアプローチは,BNNの内部構造を利用して,BNNをBDD(Bibinary Decision Diagram)にエンコードすることである。
符号化に基づいて,BNNの高精度かつ包括的分析が可能なBNNの定量的検証フレームワークを開発する。
論文 参考訳(メタデータ) (2021-03-12T12:02:41Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Understanding Learning Dynamics of Binary Neural Networks via
Information Bottleneck [11.17667928756077]
バイナリニューラルネットワーク(BNN)は、重みとアクティベーションの両方を2つのレベル(+1, -1$)に制限することで、極端にコンパクト化する。
我々は、Information Bottleneck原則を用いてBNNトレーニングを分析し、BNNのトレーニングダイナミクスがDeep Neural Networks(DNN)とはかなり異なることを観察する。
BNNは表現力に乏しいため、ラベルフィッティングと並行して効率的な隠れ表現を見つける傾向にある。
論文 参考訳(メタデータ) (2020-06-13T00:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。