論文の概要: Energy-Latency Attacks to On-Device Neural Networks via Sponge Poisoning
- arxiv url: http://arxiv.org/abs/2305.03888v1
- Date: Sat, 6 May 2023 01:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 18:54:12.280772
- Title: Energy-Latency Attacks to On-Device Neural Networks via Sponge Poisoning
- Title(参考訳): スポンジ中毒によるオンデバイスニューラルネットワークへのエネルギーレイテンシー攻撃
- Authors: Zijian Wang, Shuo Huang, Yujin Huang, Helei Cui
- Abstract要約: ストリーミングと一貫した推論シナリオをシミュレートするオンデバイススポンジ中毒攻撃パイプラインを提案する。
プロセッサとオンデバイスネットワークによる排他的実験分析は、スポンジ中毒攻撃が現代のプロセッサを効果的に汚染することを示している。
我々は、デバイス上でのディープラーニングアプリケーションに対する攻撃を防止するための防御機構の改善の必要性を強調した。
- 参考スコア(独自算出の注目度): 5.346606291026528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, on-device deep learning has gained attention as a means of
developing affordable deep learning applications for mobile devices. However,
on-device models are constrained by limited energy and computation resources.
In the mean time, a poisoning attack known as sponge poisoning has been
developed.This attack involves feeding the model with poisoned examples to
increase the energy consumption during inference. As previous work is focusing
on server hardware accelerators, in this work, we extend the sponge poisoning
attack to an on-device scenario to evaluate the vulnerability of mobile device
processors. We present an on-device sponge poisoning attack pipeline to
simulate the streaming and consistent inference scenario to bridge the
knowledge gap in the on-device setting. Our exclusive experimental analysis
with processors and on-device networks shows that sponge poisoning attacks can
effectively pollute the modern processor with its built-in accelerator. We
analyze the impact of different factors in the sponge poisoning algorithm and
highlight the need for improved defense mechanisms to prevent such attacks on
on-device deep learning applications.
- Abstract(参考訳): 近年,モバイルデバイス向けの安価なディープラーニングアプリケーションを開発する手段として,デバイス上でのディープラーニングが注目されている。
しかし、オンデバイスモデルは限られたエネルギーと計算資源によって制約される。
スポンジ中毒(sponge poisoning)として知られる中毒攻撃が開発されており、この攻撃にはモデルに有毒な例を与えて推論中のエネルギー消費量を増やすことが含まれる。
これまでの作業ではサーバハードウェアアクセラレータに重点を置いていたため、スポンジ中毒攻撃をオンデバイスシナリオにまで拡張し、モバイルデバイスプロセッサの脆弱性を評価する。
オンデバイス環境における知識ギャップを埋めるため、ストリーミングと一貫性のある推論シナリオをシミュレートするオンデバイススポンジ中毒攻撃パイプラインを提案する。
プロセッサとオンデバイスネットワークによる排他的実験分析は、スポンジ中毒攻撃が、その内蔵アクセラレーターによって、現代のプロセッサを効果的に汚染することを示している。
我々はスポンジ中毒アルゴリズムにおける様々な要因の影響を分析し、デバイス上での深層学習アプリケーションに対する攻撃を防止するための防御機構の改善の必要性を強調した。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Overload: Latency Attacks on Object Detection for Edge Devices [47.9744734181236]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
このような攻撃がどのように動作するかを示すために、オブジェクト検出を使用します。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - Indiscriminate Data Poisoning Attacks on Neural Networks [28.09519873656809]
データ中毒攻撃は、トレーニングプロセスに "poisoned" データを注入することで、モデルに影響を与えることを目的としている。
既存の毒殺攻撃を詳しく調べて、Stackelbergのシーケンシャルゲームを解くための、古いアルゴリズムと新しいアルゴリズムを結びつける。
本稿では,近代的な自動微分パッケージを有効利用し,同時に有毒点を生成するための効率的な実装を提案する。
論文 参考訳(メタデータ) (2022-04-19T18:57:26Z) - Energy-Latency Attacks via Sponge Poisoning [29.779696446182374]
私たちは、スポンジ中毒と呼ばれる攻撃を通じて、トレーニング時にスポンジのサンプルを注入できることを最初に証明しました。
この攻撃により、各テストタイム入力において、機械学習モデルのエネルギー消費とレイテンシを無差別に増加させることができる。
論文 参考訳(メタデータ) (2022-03-14T17:18:10Z) - SparseFed: Mitigating Model Poisoning Attacks in Federated Learning with
Sparsification [24.053704318868043]
モデル中毒攻撃では、攻撃者は"poisoned"アップデートをアップロードすることで、ターゲットのサブタスクのパフォーマンスを低下させる。
本稿では,グローバルなトップk更新スペーシフィケーションとデバイスレベルのクリッピング勾配を利用して,モデル中毒攻撃を緩和する新しいディフェンスであるalgonameを紹介する。
論文 参考訳(メタデータ) (2021-12-12T16:34:52Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Sponge Examples: Energy-Latency Attacks on Neural Networks [27.797657094947017]
エネルギー消費や決定遅延が重要となるニューラルネットワークに対して,新たな脅威ベクトルを導入する。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
私たちの攻撃は、自動運転車の認識など、ネットワークがリアルタイムに重要なパフォーマンスを持つ決定を遅らせるのにも使用できます。
論文 参考訳(メタデータ) (2020-06-05T14:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。