論文の概要: SoWaF: Shuffling of Weights and Feature Maps: A Novel Hardware Intrinsic
Attack (HIA) on Convolutional Neural Network (CNN)
- arxiv url: http://arxiv.org/abs/2103.09327v1
- Date: Tue, 16 Mar 2021 21:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 12:52:57.786238
- Title: SoWaF: Shuffling of Weights and Feature Maps: A Novel Hardware Intrinsic
Attack (HIA) on Convolutional Neural Network (CNN)
- Title(参考訳): SoWaF: ウェイトとフィーチャーマップのシャッフル: 畳み込みニューラルネットワーク(CNN)に対するハードウェア固有の新たな攻撃(HIA)
- Authors: Tolulope A. Odetola and Syed Rafay Hasan
- Abstract要約: 資源制約組込みシステムへの畳み込みニューラルネットワーク(CNN)の推論フェーズ展開のセキュリティは、研究領域が拡大しています。
サードパーティのFPGAデザイナは、初期と最終の分類層の知識がなくても提供できます。
このような「安全な」設計のハードウェア本質的な攻撃(HIA)はまだ可能であることを実証します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security of inference phase deployment of Convolutional neural network (CNN)
into resource constrained embedded systems (e.g. low end FPGAs) is a growing
research area. Using secure practices, third party FPGA designers can be
provided with no knowledge of initial and final classification layers. In this
work, we demonstrate that hardware intrinsic attack (HIA) in such a "secure"
design is still possible. Proposed HIA is inserted inside mathematical
operations of individual layers of CNN, which propagates erroneous operations
in all the subsequent CNN layers that lead to misclassification. The attack is
non-periodic and completely random, hence it becomes difficult to detect. Five
different attack scenarios with respect to each CNN layer are designed and
evaluated based on the overhead resources and the rate of triggering in
comparison to the original implementation. Our results for two CNN
architectures show that in all the attack scenarios, additional latency is
negligible (<0.61%), increment in DSP, LUT, FF is also less than 2.36%. Three
attack scenarios do not require any additional BRAM resources, while in two
scenarios BRAM increases, which compensates with the corresponding decrease in
FF and LUTs. To the authors' best knowledge this work is the first to address
the hardware intrinsic CNN attack with the attacker does not have knowledge of
the full CNN.
- Abstract(参考訳): Convolutional Neural Network(CNN)のリソース制約組み込みシステム(例)への推論フェーズ展開のセキュリティ
ローエンドFPGAは 研究領域として成長しています
セキュアなプラクティスを使用することで、サードパーティのFPGAデザイナは、初期層と最終層の知識を得られない。
本研究では、ハードウェア固有の攻撃(HIA)が依然として「安全な」設計で可能であることを示す。
提案されたhiaは、cnnの個々の層の数学的操作の中に挿入され、その後の全てのcnn層の誤分類につながる誤操作を伝播する。
攻撃は非周期的で完全にランダムであるため、検出が困難になる。
各cnn層に対する5つの異なる攻撃シナリオを、オーバーヘッドリソースと元の実装と比較してトリガ率に基づいて設計し、評価する。
2つのCNNアーキテクチャの結果、全ての攻撃シナリオにおいて、追加のレイテンシは無視可能である(<0.61%)、DSP、LUT、FFは2.36%未満である。
3つの攻撃シナリオは追加のBRAMリソースを必要としないが、2つのシナリオではBRAMが増加し、FFとLUTの減少に対応する。
著者の知る限りでは、この研究はハードウェア固有のCNN攻撃に最初に対処するものであり、攻撃者は完全なCNNの知識を持っていない。
関連論文リスト
- Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - FeSHI: Feature Map Based Stealthy Hardware Intrinsic Attack [0.5872014229110214]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョン、自然言語処理、その他多くのアプリケーションにおいて優れたパフォーマンスを示している。
CNNにおけるクラウドコンピューティングの利用は、ますます人気が高まっている。
これは、CNN用の組み込みハードウェアアクセラレータを開発する動機となった、プライバシとレイテンシに関する懸念が伴っている。
論文 参考訳(メタデータ) (2021-06-13T01:50:34Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - A Panda? No, It's a Sloth: Slowdown Attacks on Adaptive Multi-Exit
Neural Network Inference [6.320009081099895]
スローダウン攻撃は、マルチエクイットDNNの有効性を90-100%削減し、典型的なIoTデプロイメントにおいて1.5~5$times$のレイテンシを増幅する。
汎用的で再利用可能な摂動を構築でき、攻撃は現実的なブラックボックスのシナリオで有効であることを示す。
論文 参考訳(メタデータ) (2020-10-06T02:06:52Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - How Secure is Distributed Convolutional Neural Network on IoT Edge
Devices? [0.0]
異なるノードにわたる分散エッジネットワークに展開するCNNに対するTrojan攻撃を提案する。
これらの攻撃はディープラーニングモデル(LeNet、AlexNet)でテストされる
論文 参考訳(メタデータ) (2020-06-16T16:10:09Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。