論文の概要: David and Goliath: An Empirical Evaluation of Attacks and Defenses for QNNs at the Deep Edge
- arxiv url: http://arxiv.org/abs/2404.05688v2
- Date: Thu, 2 May 2024 20:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 17:18:04.061681
- Title: David and Goliath: An Empirical Evaluation of Attacks and Defenses for QNNs at the Deep Edge
- Title(参考訳): David and Goliath: ディープエッジにおけるQNNの攻撃と防御に関する実証的評価
- Authors: Miguel Costa, Sandro Pinto,
- Abstract要約: 量子化(quantization)は、MCUへのニューラルネットワークの展開を可能にするための、確立されたテクニックである。
我々は,非拘束QNNからの攻撃と防御の有効性を実証的に評価した。
- 参考スコア(独自算出の注目度): 0.9606184401853288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML is shifting from the cloud to the edge. Edge computing reduces the surface exposing private data and enables reliable throughput guarantees in real-time applications. Of the panoply of devices deployed at the edge, resource-constrained MCUs, e.g., Arm Cortex-M, are more prevalent, orders of magnitude cheaper, and less power-hungry than application processors or GPUs. Thus, enabling intelligence at the deep edge is the zeitgeist, with researchers focusing on unveiling novel approaches to deploy ANNs on these constrained devices. Quantization is a well-established technique that has proved effective in enabling the deployment of neural networks on MCUs; however, it is still an open question to understand the robustness of QNNs in the face of adversarial examples. To fill this gap, we empirically evaluate the effectiveness of attacks and defenses from (full-precision) ANNs on (constrained) QNNs. Our evaluation includes three QNNs targeting TinyML applications, ten attacks, and six defenses. With this study, we draw a set of interesting findings. First, quantization increases the point distance to the decision boundary and leads the gradient estimated by some attacks to explode or vanish. Second, quantization can act as a noise attenuator or amplifier, depending on the noise magnitude, and causes gradient misalignment. Regarding adversarial defenses, we conclude that input pre-processing defenses show impressive results on small perturbations; however, they fall short as the perturbation increases. At the same time, train-based defenses increase the average point distance to the decision boundary, which holds after quantization. However, we argue that train-based defenses still need to smooth the quantization-shift and gradient misalignment phenomenons to counteract adversarial example transferability to QNNs. All artifacts are open-sourced to enable independent validation of results.
- Abstract(参考訳): MLはクラウドからエッジにシフトしています。
エッジコンピューティングは、プライベートデータを露出する表面を低減し、リアルタイムアプリケーションで信頼性の高いスループットを保証する。
エッジにデプロイされるデバイスのうち、リソースに制約のあるMCU、例えばArm Cortex-Mは、より一般的で、桁違いに安価で、アプリケーションプロセッサやGPUよりも電力消費が少ない。
したがって、ディープエッジでのインテリジェンスの実現はサイテジストであり、研究者はこれらの制約されたデバイスにANNをデプロイするための新しいアプローチを公開することに重点を置いている。
量子化(quantization)は、ニューラルネットワークをMCUにデプロイする上で有効な確立されたテクニックだが、敵の例に直面したQNNの堅牢性を理解することは、依然としてオープンな疑問である。
このギャップを埋めるために、我々は(完全精度)ANNから(拘束された)QNNへの攻撃と防御の有効性を実証的に評価した。
評価には、TinyMLアプリケーションをターゲットにした3つのQNN、10回の攻撃、6回の防御が含まれている。
本研究では,本研究から興味深い知見が得られた。
第一に、量子化は決定境界までの点距離を増大させ、いくつかの攻撃によって見積もられた勾配を爆発または消滅させる。
第二に、量子化は雑音の大きさによってノイズ減衰器や増幅器として機能し、勾配のずれを引き起こす。
対向防御については,入力前処理防衛は小さな摂動に対して印象的な結果を示すが,摂動が増加するにつれて低下する。
同時に、列車ベースの防御は、定量化後に保持される決定境界への平均点距離を増大させる。
しかし、QNNに対する対向的なサンプル転送性に対処するために、電車による防御は量子化シフトと勾配の誤調整現象を円滑にする必要があると論じる。
成果の独立した検証を可能にするため、すべての成果物はオープンソースである。
関連論文リスト
- Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Overload: Latency Attacks on Object Detection for Edge Devices [47.9744734181236]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
このような攻撃がどのように動作するかを示すために、オブジェクト検出を使用します。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - Qu-ANTI-zation: Exploiting Quantization Artifacts for Achieving
Adversarial Outcomes [5.865029600972316]
量子化(quantization)は、ニューラルネットワークのパラメータ表現を浮動小数点数から低精度の数値に変換する技術である。
逆量子化結果を実装するための新しいトレーニングフレームワークを提案する。
1つの妥協されたモデルが複数の量子化スキームを破ることを示す。
論文 参考訳(メタデータ) (2021-10-26T10:09:49Z) - Mitigating Black-Box Adversarial Attacks via Output Noise Perturbation [4.7591428725916245]
ブラックボックスの敵攻撃では、敵はディープニューラルネットワーク(DNN)に問い合わせる
本稿では,この攻撃を緩和するために,DNN出力に白色雑音を加える手法について検討する。
論文 参考訳(メタデータ) (2021-09-30T14:24:44Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。