論文の概要: Mitigating Adversarial Attack for Compute-in-Memory Accelerator
Utilizing On-chip Finetune
- arxiv url: http://arxiv.org/abs/2104.06377v1
- Date: Tue, 13 Apr 2021 17:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 16:04:08.101348
- Title: Mitigating Adversarial Attack for Compute-in-Memory Accelerator
Utilizing On-chip Finetune
- Title(参考訳): オンチップファインツーンを用いた計算インメモリ加速器の逆攻撃の軽減
- Authors: Shanshi Huang, Hongwu Jiang and Shimeng Yu
- Abstract要約: ADC誤差による精度損失は, モデル重みの微調整により回復可能であることがわかった。
ADCオフセットを補うことに加えて、オンチップの重み付けにより敵攻撃に対する防御が強化された。
- 参考スコア(独自算出の注目度): 4.393754160527062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compute-in-memory (CIM) has been proposed to accelerate the convolution
neural network (CNN) computation by implementing parallel multiply and
accumulation in analog domain. However, the subsequent processing is still
preferred to be performed in digital domain. This makes the analog to digital
converter (ADC) critical in CIM architectures. One drawback is the ADC error
introduced by process variation. While research efforts are being made to
improve ADC design to reduce the offset, we find that the accuracy loss
introduced by the ADC error could be recovered by model weight finetune. In
addition to compensate ADC offset, on-chip weight finetune could be leveraged
to provide additional protection for adversarial attack that aims to fool the
inference engine with manipulated input samples. Our evaluation results show
that by adapting the model weights to the specific ADC offset pattern to each
chip, the transferability of the adversarial attack is suppressed. For a chip
being attacked by the C&W method, the classification for CIFAR-10 dataset will
drop to almost 0%. However, when applying the similarly generated adversarial
examples to other chips, the accuracy could still maintain more than 62% and
85% accuracy for VGG-8 and DenseNet-40, respectively.
- Abstract(参考訳): アナログ領域に並列乗算と累積を実装し,畳み込みニューラルネットワーク(CNN)計算を高速化するために,CIM(Compute-in-Memory)が提案されている。
しかし、その後の処理は依然としてデジタルドメインで行うことが望ましい。
これはCIMアーキテクチャにおいてデジタルコンバータ(ADC)と類似している。
1つの欠点はプロセス変動によって導入されたadcエラーである。
オフセット低減のため, ADC設計の改善に向けた研究が進められているが, ADC誤差による精度損失はモデル重み付けにより回収できることがわかった。
ADCオフセットの補償に加えて、オンチップの重み付けは、操作された入力サンプルで推論エンジンを騙すことを目的とした敵攻撃に対する追加の保護を提供するために利用することができる。
評価の結果,各チップに特定のADCオフセットパターンにモデル重みを適応させることで,対向攻撃の伝達性が抑制されることがわかった。
C&W法で攻撃されるチップでは、CIFAR-10データセットの分類はほぼ0%に低下する。
しかし、同じ生成した逆数例を他のチップに適用する場合、VGG-8とDenseNet-40の精度は62%以上、精度は85%以上維持できる。
関連論文リスト
- Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Adaptive Block Floating-Point for Analog Deep Learning Hardware [1.6997472894492924]
アナログ混合信号(AMS)デバイスは、デジタル信号よりも高速でエネルギー効率の高いディープニューラルネットワーク(DNN)推論を約束する。
近年の研究では、固定点数を持つAMSデバイス上でのDNNは、精度の低下により精度の低下を招き得ることが示されている。
AMS互換適応ブロック浮動小数点(ABFP)数表現を提案する。
論文 参考訳(メタデータ) (2022-05-12T18:05:37Z) - AnalogNets: ML-HW Co-Design of Noise-robust TinyML Models and Always-On
Analog Compute-in-Memory Accelerator [50.31646817567764]
本稿では,キーワードスポッティング (KWS) と視覚覚醒語 (VWW) を常用するTinyMLモデルについて述べる。
アナログ非イデオロギーに面した精度を維持するため、包括的学習手法を詳述する。
また、プログラム可能な最小領域位相変化メモリ(PCM)アナログCiMアクセラレータであるAON-CiMについて述べる。
論文 参考訳(メタデータ) (2021-11-10T10:24:46Z) - Using Undervolting as an On-Device Defense Against Adversarial Machine
Learning Attacks [1.9212368803706579]
本稿では,画像分類器のための新しい,軽量な逆補正および/または検出機構を提案する。
これらの誤りは、分類を正したり、入力を逆数として検出するために使用できる方法で、逆数入力を妨害することを示す。
論文 参考訳(メタデータ) (2021-07-20T23:21:04Z) - AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks [78.62086125399831]
本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
論文 参考訳(メタデータ) (2021-06-23T13:23:00Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Non-Autoregressive Transformer ASR with CTC-Enhanced Decoder Input [54.82369261350497]
CTCモジュールの予測を精算することでターゲットシーケンスを生成するCTC拡張NARトランスを提案する。
実験結果から,Aishell-1およびAishell-2データセットでは,Aishell-1およびAishell-2データセットの絶対CER劣化が0。
論文 参考訳(メタデータ) (2020-10-28T15:00:09Z) - On the Intrinsic Robustness of NVM Crossbars Against Adversarial Attacks [6.592909460916497]
アナログコンピューティングの非理想的動作は、敵攻撃の有効性を低下させることを示す。
攻撃者がアナログハードウェアに気づいていない非適応攻撃では、アナログコンピューティングは固有の頑健さの程度が異なることを観察する。
論文 参考訳(メタデータ) (2020-08-27T09:36:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。