論文の概要: Energy Backdoor Attack to Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2501.08152v1
- Date: Tue, 14 Jan 2025 14:26:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:29:11.141194
- Title: Energy Backdoor Attack to Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークへのエネルギーバックドア攻撃
- Authors: Hanene F. Z. Brachemi Meftah, Wassim Hamidouche, Sid Ahmed Fezza, Olivier Déforges, Kassem Kallas,
- Abstract要約: ディープラーニング(DL)は計算の複雑さとエネルギー使用量を増やし、エネルギー効率のよいエッジとモバイルデプロイメントにアプリケーション固有の集積回路(ASIC)を採用する。
最近の研究は、これらの加速器のエネルギー攻撃に対する脆弱性を実証している。
本稿では,疎結合型加速器で動作するディープニューラルネットワーク(DNN)に対する革新的なエネルギーバックドア攻撃を設計する。
- 参考スコア(独自算出の注目度): 14.40890430352325
- License:
- Abstract: The rise of deep learning (DL) has increased computing complexity and energy use, prompting the adoption of application specific integrated circuits (ASICs) for energy-efficient edge and mobile deployment. However, recent studies have demonstrated the vulnerability of these accelerators to energy attacks. Despite the development of various inference time energy attacks in prior research, backdoor energy attacks remain unexplored. In this paper, we design an innovative energy backdoor attack against deep neural networks (DNNs) operating on sparsity-based accelerators. Our attack is carried out in two distinct phases: backdoor injection and backdoor stealthiness. Experimental results using ResNet-18 and MobileNet-V2 models trained on CIFAR-10 and Tiny ImageNet datasets show the effectiveness of our proposed attack in increasing energy consumption on trigger samples while preserving the model's performance for clean/regular inputs. This demonstrates the vulnerability of DNNs to energy backdoor attacks. The source code of our attack is available at: https://github.com/hbrachemi/energy_backdoor.
- Abstract(参考訳): ディープラーニング(DL)の台頭は、計算の複雑さとエネルギー利用を増大させ、エネルギー効率の高いエッジおよびモバイルデプロイメントのためのアプリケーション固有の集積回路(ASIC)の採用を促した。
しかし、最近の研究はこれらの加速器のエネルギー攻撃に対する脆弱性を実証している。
先行研究における様々な推論時間エネルギー攻撃の発展にもかかわらず、バックドアエネルギー攻撃は未調査のままである。
本稿では,疎結合型加速器で動作するディープニューラルネットワーク(DNN)に対する革新的なエネルギーバックドア攻撃を設計する。
我々の攻撃は、バックドア注入とバックドアステルスネスの2つの異なる段階で行われる。
CIFAR-10およびTiny ImageNetデータセットをトレーニングしたResNet-18およびMobileNet-V2モデルを用いた実験結果から,クリーン/規則入力に対するモデルの性能を保ちながら,トリガ試料のエネルギー消費を増加させる攻撃の有効性が示された。
これは、エネルギーバックドア攻撃に対するDNNの脆弱性を示す。
私たちの攻撃のソースコードは、https://github.com/hbrachemi/energy_backdoor.comで公開されている。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z) - Exploiting Vulnerabilities of Deep Learning-based Energy Theft Detection
in AMI through Adversarial Attacks [1.5791732557395552]
本研究では,一段階攻撃や反復攻撃を含む敵攻撃による深層学習によるエネルギー盗難検出の脆弱性について検討した。
3種類のニューラルネットワークによる評価は,DLモデルによって検出されることなく,敵攻撃者が極めて低消費電力の測定をユーティリティに報告できることを示唆している。
論文 参考訳(メタデータ) (2020-10-16T02:25:40Z) - Sponge Examples: Energy-Latency Attacks on Neural Networks [27.797657094947017]
エネルギー消費や決定遅延が重要となるニューラルネットワークに対して,新たな脅威ベクトルを導入する。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
私たちの攻撃は、自動運転車の認識など、ネットワークがリアルタイムに重要なパフォーマンスを持つ決定を遅らせるのにも使用できます。
論文 参考訳(メタデータ) (2020-06-05T14:10:09Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。