論文の概要: The SpongeNet Attack: Sponge Weight Poisoning of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2402.06357v1
- Date: Fri, 9 Feb 2024 12:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:19:44.252293
- Title: The SpongeNet Attack: Sponge Weight Poisoning of Deep Neural Networks
- Title(参考訳): スポンジネット攻撃:ディープニューラルネットワークのスポンジ重みによる攻撃
- Authors: Jona te Lintelo and Stefanos Koffas and Stjepan Picek
- Abstract要約: スポンジ攻撃は、ハードウェアアクセラレータにデプロイされたニューラルネットワークのエネルギー消費と計算時間を増加させることを目的としている。
本研究では,スポンジネットと呼ばれる新しいスポンジ攻撃を提案する。
SpongeNetは、トレーニング済みモデルのパラメータ上で直接実行される最初のスポンジ攻撃である。
- 参考スコア(独自算出の注目度): 13.50836597978519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sponge attacks aim to increase the energy consumption and computation time of
neural networks deployed on hardware accelerators. Existing sponge attacks can
be performed during inference via sponge examples or during training via Sponge
Poisoning. Sponge examples leverage perturbations added to the model's input to
increase energy and latency, while Sponge Poisoning alters the objective
function of a model to induce inference-time energy/latency effects.
In this work, we propose a novel sponge attack called SpongeNet. SpongeNet is
the first sponge attack that is performed directly on the parameters of a
pre-trained model. Our experiments show that SpongeNet can successfully
increase the energy consumption of vision models with fewer samples required
than Sponge Poisoning. Our experiments indicate that poisoning defenses are
ineffective if not adjusted specifically for the defense against Sponge
Poisoning (i.e., they decrease batch normalization bias values). Our work shows
that SpongeNet is more effective on StarGAN than the state-of-the-art.
Additionally, SpongeNet is stealthier than the previous Sponge Poisoning attack
as it does not require significant changes in the victim model's weights. Our
experiments indicate that the SpongeNet attack can be performed even when an
attacker has access to only 1% of the entire dataset and reach up to 11% energy
increase.
- Abstract(参考訳): スポンジ攻撃は、ハードウェアアクセラレータにデプロイされたニューラルネットワークのエネルギー消費と計算時間を増加させることを目的としている。
既存のスポンジアタックは、スポンジの例による推論や、スポンジポジティングによるトレーニングで実行できる。
スポンジの例では、モデル入力に加わった摂動を利用してエネルギーと遅延を増大させ、スポンジポイジングはモデルの目的関数を変更して推論時エネルギー/遅延効果を誘導する。
本研究ではspongenetと呼ばれる新しいスポンジ攻撃を提案する。
SpongeNetは、トレーニング済みモデルのパラメータ上で直接実行される最初のスポンジ攻撃である。
私たちの実験では、スポンジ中毒よりも少ないサンプルで視覚モデルのエネルギー消費を効果的に増やすことが示されている。
実験は,スポンジ中毒に対する防御(バッチ正規化バイアス値を減少させる)のために特に調整しなければ,中毒防御は効果がないことを示している。
私たちの研究によると、spongenetは最先端のstarganよりも効果的である。
さらに、spongenetは、被害者モデルの重みに大きな変更を必要としないため、以前のスポンジ中毒攻撃よりもステルスである。
実験の結果,攻撃者がデータセット全体の1%しかアクセスできず,最大11%のエネルギー増加を達成した場合でも,スポンジネット攻撃が実行可能であることがわかった。
関連論文リスト
- Game-Theoretic Unlearnable Example Generator [18.686469222136854]
学習不可能な例攻撃は、トレーニングサンプルに知覚不能な摂動を加えることによって、ディープラーニングのクリーンなテスト精度を低下させることを目的としている。
本稿では,非ゼロ和スタックルバーグゲームとしてアタックを定式化することにより,ゲーム理論の観点からの未知の例攻撃について検討する。
本稿では,3つの主要な勾配を持つGUE(Game Unlearnable Example)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T00:43:30Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Energy-Latency Attacks to On-Device Neural Networks via Sponge Poisoning [5.346606291026528]
ストリーミングと一貫した推論シナリオをシミュレートするオンデバイススポンジ中毒攻撃パイプラインを提案する。
プロセッサとオンデバイスネットワークによる排他的実験分析は、スポンジ中毒攻撃が現代のプロセッサを効果的に汚染することを示している。
我々は、デバイス上でのディープラーニングアプリケーションに対する攻撃を防止するための防御機構の改善の必要性を強調した。
論文 参考訳(メタデータ) (2023-05-06T01:20:30Z) - Overload: Latency Attacks on Object Detection for Edge Devices [60.10849291279201]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
遅延攻撃では、通常の設定に対して1枚の画像の推測時間が10倍長くなることが示される。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - Few-shot Backdoor Attacks via Neural Tangent Kernels [31.85706783674533]
バックドア攻撃では、攻撃者が破損した例をトレーニングセットに注入する。
これらの攻撃の中心は、攻撃の成功率と、注入された破損したトレーニング例の数との間のトレードオフである。
ニューラルネットワークカーネルを用いて、攻撃されたモデルのトレーニングダイナミクスを近似し、強力な毒のサンプルを自動的に学習する。
論文 参考訳(メタデータ) (2022-10-12T05:30:00Z) - Breaking the De-Pois Poisoning Defense [0.0]
我々は、アタック非依存のデポア防衛は、このルールの例外ではないことを示す。
本研究では,批判モデルと対象モデルの両方に対して,同時にグラデーション・サイン・アタックを行うことにより,この毒性保護層を破る。
論文 参考訳(メタデータ) (2022-04-03T15:17:47Z) - Energy-Latency Attacks via Sponge Poisoning [29.779696446182374]
私たちは、スポンジ中毒と呼ばれる攻撃を通じて、トレーニング時にスポンジのサンプルを注入できることを最初に証明しました。
この攻撃により、各テストタイム入力において、機械学習モデルのエネルギー消費とレイテンシを無差別に増加させることができる。
論文 参考訳(メタデータ) (2022-03-14T17:18:10Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。