論文の概要: The SkipSponge Attack: Sponge Weight Poisoning of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2402.06357v3
- Date: Fri, 26 Jul 2024 11:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 18:21:50.256165
- Title: The SkipSponge Attack: Sponge Weight Poisoning of Deep Neural Networks
- Title(参考訳): スキップスポンジ攻撃:ディープニューラルネットワークのスポンジ重量のポジティング
- Authors: Jona te Lintelo, Stefanos Koffas, Stjepan Picek,
- Abstract要約: SkipSpongeは、いくつかのデータサンプルのみを使用して事前訓練されたモデルのパラメータに直接実行される最初のスポンジ攻撃である。
実験の結果,SkipSpongeは画像分類モデル,GAN,オートエンコーダのエネルギー消費を増加させることができた。
- 参考スコア(独自算出の注目度): 12.019190819782525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sponge attacks aim to increase the energy consumption and computation time of neural networks deployed on hardware accelerators. Existing sponge attacks can be performed during inference via sponge examples or during training via Sponge Poisoning. Sponge examples leverage perturbations added to the model's input to increase energy and latency, while Sponge Poisoning alters the objective function of a model to induce inference-time energy effects. In this work, we propose a novel sponge attack called SkipSponge. SkipSponge is the first sponge attack that is performed directly on the parameters of a pre-trained model using only a few data samples. Our experiments show that SkipSponge can successfully increase the energy consumption of image classification models, GANs, and autoencoders with fewer samples required than Sponge Poisoning. We show that poisoning defenses are ineffective if not adjusted specifically for the defense against SkipSponge (i.e., they decrease target layer bias values). Our work shows that SkipSponge is more effective on the GANs and the autoencoders than the state-of-the-art. Additionally, SkipSponge is stealthier than the previous Sponge Poisoning attack as it does not require significant changes in the victim model's weights. Our experiments indicate that the SkipSponge attack can be performed even when an attacker has access to only 1% of the entire dataset and reaches up to 13% energy increase.
- Abstract(参考訳): スポンジ攻撃は、ハードウェアアクセラレータにデプロイされたニューラルネットワークのエネルギー消費と計算時間を増加させることを目的としている。
既存のスポンジアタックは、スポンジの例による推論や、スポンジポジティングによるトレーニングで実行することができる。
スポンジの例では、モデル入力に加えられた摂動を利用してエネルギーと遅延を増大させ、スポンジポゾンはモデルの目的関数を変更して推論時エネルギー効果を誘導する。
本研究では,SkipSpongeと呼ばれる新しいスポンジ攻撃を提案する。
SkipSpongeは、いくつかのデータサンプルのみを使用して事前訓練されたモデルのパラメータに直接実行される最初のスポンジ攻撃である。
実験の結果,SkipSpongeは画像分類モデル,GAN,オートエンコーダのエネルギー消費を,スポンジポゾンよりも少ないサンプルで向上させることができることがわかった。
我々は,SkipSpongeに対する防御のために特別に調整されていない場合(すなわち,標的層バイアス値を減少させる)に,毒の防御は効果がないことを示す。
我々の研究は、SkipSpongeが最先端技術よりもGANやオートエンコーダに効果的であることを示している。
さらに、SkipSpongeは、被害者モデルの重みに大きな変更を必要としないため、以前のスポンジ・ポゾン攻撃よりステルス性が高い。
実験の結果,攻撃者がデータセット全体の1%しかアクセスできず,最大13%のエネルギー増加を達成した場合でも,SkipSponge攻撃が実行可能であることがわかった。
関連論文リスト
- The Impact of Uniform Inputs on Activation Sparsity and Energy-Latency Attacks in Computer Vision [4.45482419850721]
研究者は最近、ニューラルネットワークのエネルギー消費と決定レイテンシを高めるために、攻撃者が推論時にいわゆるスポンジ例を計算し、提出できることを実証した。
コンピュータビジョンでは、提案された戦略は、計算の高速化に使用可能なアクティベーションの間隔を小さくして入力を作成する。
均一な画像、すなわち、主に平坦で均一に色のついた表面を持つ画像は、畳み込み、バッチ正規化、ReLUアクティベーションの特定の相互作用により、より多くのアクティベーションをトリガーする。
論文 参考訳(メタデータ) (2024-03-27T14:11:23Z) - Diffusion Denoising as a Certified Defense against Clean-label Poisoning [56.04951180983087]
本稿では,市販の拡散モデルを用いて,改ざんしたトレーニングデータを浄化する方法を示す。
7件のクリーンラベル中毒に対する我々の防御を広範囲に検証し、その攻撃成功率を0-16%に抑え、テスト時間の精度は無視できない程度に低下した。
論文 参考訳(メタデータ) (2024-03-18T17:17:07Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Energy-Latency Attacks to On-Device Neural Networks via Sponge Poisoning [5.346606291026528]
ストリーミングと一貫した推論シナリオをシミュレートするオンデバイススポンジ中毒攻撃パイプラインを提案する。
プロセッサとオンデバイスネットワークによる排他的実験分析は、スポンジ中毒攻撃が現代のプロセッサを効果的に汚染することを示している。
我々は、デバイス上でのディープラーニングアプリケーションに対する攻撃を防止するための防御機構の改善の必要性を強調した。
論文 参考訳(メタデータ) (2023-05-06T01:20:30Z) - Few-shot Backdoor Attacks via Neural Tangent Kernels [31.85706783674533]
バックドア攻撃では、攻撃者が破損した例をトレーニングセットに注入する。
これらの攻撃の中心は、攻撃の成功率と、注入された破損したトレーニング例の数との間のトレードオフである。
ニューラルネットワークカーネルを用いて、攻撃されたモデルのトレーニングダイナミクスを近似し、強力な毒のサンプルを自動的に学習する。
論文 参考訳(メタデータ) (2022-10-12T05:30:00Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Energy-Latency Attacks via Sponge Poisoning [29.779696446182374]
私たちは、スポンジ中毒と呼ばれる攻撃を通じて、トレーニング時にスポンジのサンプルを注入できることを最初に証明しました。
この攻撃により、各テストタイム入力において、機械学習モデルのエネルギー消費とレイテンシを無差別に増加させることができる。
論文 参考訳(メタデータ) (2022-03-14T17:18:10Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Weight Poisoning Attacks on Pre-trained Models [103.19413805873585]
本研究は, バックドアを微調整した後に, バックドアを露出する脆弱性を伴って, 事前訓練した重量を注入した場合に, 重量中毒を発生させることが可能であることを示す。
感情分類,毒性検出,スパム検出に関する実験により,この攻撃は広く適用可能であり,深刻な脅威となることが示された。
論文 参考訳(メタデータ) (2020-04-14T16:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。