論文の概要: Sponge Examples: Energy-Latency Attacks on Neural Networks
- arxiv url: http://arxiv.org/abs/2006.03463v2
- Date: Wed, 12 May 2021 14:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 02:34:22.398077
- Title: Sponge Examples: Energy-Latency Attacks on Neural Networks
- Title(参考訳): spongeの例:ニューラルネットワークに対するエネルギー遅延攻撃
- Authors: Ilia Shumailov, Yiren Zhao, Daniel Bates, Nicolas Papernot, Robert
Mullins, Ross Anderson
- Abstract要約: エネルギー消費や決定遅延が重要となるニューラルネットワークに対して,新たな脅威ベクトルを導入する。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
私たちの攻撃は、自動運転車の認識など、ネットワークがリアルタイムに重要なパフォーマンスを持つ決定を遅らせるのにも使用できます。
- 参考スコア(独自算出の注目度): 27.797657094947017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The high energy costs of neural network training and inference led to the use
of acceleration hardware such as GPUs and TPUs. While this enabled us to train
large-scale neural networks in datacenters and deploy them on edge devices, the
focus so far is on average-case performance. In this work, we introduce a novel
threat vector against neural networks whose energy consumption or decision
latency are critical. We show how adversaries can exploit carefully crafted
$\boldsymbol{sponge}~\boldsymbol{examples}$, which are inputs designed to
maximise energy consumption and latency.
We mount two variants of this attack on established vision and language
models, increasing energy consumption by a factor of 10 to 200. Our attacks can
also be used to delay decisions where a network has critical real-time
performance, such as in perception for autonomous vehicles. We demonstrate the
portability of our malicious inputs across CPUs and a variety of hardware
accelerator chips including GPUs, and an ASIC simulator. We conclude by
proposing a defense strategy which mitigates our attack by shifting the
analysis of energy consumption in hardware from an average-case to a worst-case
perspective.
- Abstract(参考訳): ニューラルネットワークのトレーニングと推論の高エネルギーコストは、GPUやTPUといったアクセラレーションハードウェアの使用につながった。
これにより、データセンターで大規模なニューラルネットワークをトレーニングし、エッジデバイスにデプロイすることが可能になりましたが、これまでの焦点は平均ケースのパフォーマンスにあります。
本研究では,エネルギー消費や決定遅延が重要となるニューラルネットワークに対する新たな脅威ベクトルを提案する。
敵は、エネルギー消費と遅延を最大化するために設計された入力である$\boldsymbol{sponge}~\boldsymbol{examples}$を慎重に作り出すことができることを示す。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
当社のアタックは、自動運転車の認識など、ネットワークが重要なリアルタイムパフォーマンスを持つ決定を遅らせることにも利用できます。
我々は、CPUやGPU、ASICシミュレータなど、さまざまなハードウェアアクセラレータチップにまたがる悪意のある入力の可搬性を実証する。
結論として,ハードウェアのエネルギー消費分析を平均値から最悪の視点にシフトすることで,攻撃を緩和する防衛戦略を提案する。
関連論文リスト
- Anomaly-based Framework for Detecting Power Overloading Cyberattacks in Smart Grid AMI [5.5672938329986845]
本稿では回帰決定木に基づく2段階異常検出フレームワークを提案する。
導入された検出手法は、エネルギー消費の規則性と予測可能性を利用して参照消費パターンを構築する。
アイルランドの500人の顧客を対象とした,実世界の公用エネルギー消費データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2024-07-03T16:52:23Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Enhancing Adversarial Attacks on Single-Layer NVM Crossbar-Based Neural
Networks with Power Consumption Information [0.0]
最先端の機械学習モデルに対する敵対的な攻撃は、ミッションクリティカルな自律システムの安全性とセキュリティに重大な脅威をもたらす。
本稿では、攻撃者が基盤となるハードウェアプラットフォームの消費電力を計測できる場合、機械学習モデルのさらなる脆弱性について考察する。
論文 参考訳(メタデータ) (2022-07-06T15:56:30Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks [3.9193443389004887]
ディープニューラルネットワーク(DNN)のアドリアックが深刻な脆弱性を露呈
そこで本研究では,DNNの内部アクティベーション値のスパシティを低減するために,DNNの入力を逆向きに修正するスポーシティアタックを提案し,実証する。
我々は、敵対的スパシティ攻撃のホワイトボックス版とブラックボックス版の両方をローンチし、アクティベーション・スパシティーを最大1.82倍まで減少させることを示した。
論文 参考訳(メタデータ) (2020-06-14T21:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。