論文の概要: Defensive Approximation: Securing CNNs using Approximate Computing
- arxiv url: http://arxiv.org/abs/2006.07700v3
- Date: Thu, 29 Jul 2021 08:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:36:42.083722
- Title: Defensive Approximation: Securing CNNs using Approximate Computing
- Title(参考訳): Defensive Approximation: Approximate Computingを用いたCNNのセキュア化
- Authors: Amira Guesmi, Ihsen Alouani, Khaled Khasawneh, Mouna Baklouti, Tarek
Frikha, Mohamed Abid, Nael Abu-Ghazaleh
- Abstract要約: 我々の近似計算実装は、幅広い攻撃シナリオにまたがって堅牢性を実現することを示す。
分類精度は同じ水準を維持し,再訓練を必要とせず,資源利用量やエネルギー消費量を削減できる。
- 参考スコア(独自算出の注目度): 2.29450472676752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years, an increasing number of machine-learning and deep
learning structures, such as Convolutional Neural Networks (CNNs), have been
applied to solving a wide range of real-life problems. However, these
architectures are vulnerable to adversarial attacks. In this paper, we propose
for the first time to use hardware-supported approximate computing to improve
the robustness of machine learning classifiers. We show that our approximate
computing implementation achieves robustness across a wide range of attack
scenarios. Specifically, for black-box and grey-box attack scenarios, we show
that successful adversarial attacks against the exact classifier have poor
transferability to the approximate implementation. Surprisingly, the robustness
advantages also apply to white-box attacks where the attacker has access to the
internal implementation of the approximate classifier. We explain some of the
possible reasons for this robustness through analysis of the internal operation
of the approximate implementation. Furthermore, our approximate computing model
maintains the same level in terms of classification accuracy, does not require
retraining, and reduces resource utilization and energy consumption of the CNN.
We conducted extensive experiments on a set of strong adversarial attacks; We
empirically show that the proposed implementation increases the robustness of a
LeNet-5 and an Alexnet CNNs by up to 99% and 87%, respectively for strong
grey-box adversarial attacks along with up to 67% saving in energy consumption
due to the simpler nature of the approximate logic. We also show that a
white-box attack requires a remarkably higher noise budget to fool the
approximate classifier, causing an average of 4db degradation of the PSNR of
the input image relative to the images that succeed in fooling the exact
classifier
- Abstract(参考訳): 近年,畳み込みニューラルネットワーク(convolutional neural networks,cnns)などの機械学習や深層学習構造が,様々な現実の問題解決に応用されている。
しかし、これらのアーキテクチャは敵の攻撃に弱い。
本稿では,機械学習分類器のロバスト性を改善するため,ハードウェアによる近似計算を初めて行うことを提案する。
我々の近似計算実装は、幅広い攻撃シナリオにまたがって堅牢性を実現することを示す。
具体的には,ブラックボックスおよびグレイボックス攻撃のシナリオにおいて,正確な分類器に対する攻撃の成功が近似実装への移動性に乏しいことを示す。
驚くべきことに、攻撃者が近似分類器の内部実装にアクセスできるホワイトボックス攻撃にもロバスト性上の利点が適用される。
本稿では,近似実装の内部動作の解析を通して,この頑健性の原因について述べる。
さらに,この近似計算モデルは,分類精度の面では同じレベルを維持し,再訓練を必要とせず,cnnの資源利用とエネルギー消費を低減している。
我々は強敵攻撃のセットについて広範な実験を行い,提案手法により,lenet-5とalexnet cnnのロバスト性が最大99%,87%向上することを示した。
また、ホワイトボックス攻撃では、近似分類器を騙すためにノイズ予算が著しく高くなり、正確な分類器を騙すことに成功した画像と比較して入力画像のpsnrが平均4db劣化することを示した。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Robust Structured Declarative Classifiers for 3D Point Clouds: Defending
Adversarial Attacks with Implicit Gradients [27.738181762952006]
現在のディフェンダーは、しばしば、復元によって敵の点雲を飾ることを学び、入力として敵の点雲に給餌する。
本稿では, 内部制約最適化機構が敵攻撃を効果的に防御することのできる, ポイントクラウド分類のためのロバストな構造化宣言のファミリーを提案する。
我々は,ModelNet40とScanNetのクラウド分類性能を,7つの異なる攻撃条件下で実証した。
論文 参考訳(メタデータ) (2022-03-29T05:35:51Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - On the Intrinsic Robustness of NVM Crossbars Against Adversarial Attacks [6.592909460916497]
アナログコンピューティングの非理想的動作は、敵攻撃の有効性を低下させることを示す。
攻撃者がアナログハードウェアに気づいていない非適応攻撃では、アナログコンピューティングは固有の頑健さの程度が異なることを観察する。
論文 参考訳(メタデータ) (2020-08-27T09:36:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。