論文の概要: Mind Your Heart: Stealthy Backdoor Attack on Dynamic Deep Neural Network
in Edge Computing
- arxiv url: http://arxiv.org/abs/2212.11751v1
- Date: Thu, 22 Dec 2022 14:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:31:11.412176
- Title: Mind Your Heart: Stealthy Backdoor Attack on Dynamic Deep Neural Network
in Edge Computing
- Title(参考訳): Mind Your Heart:エッジコンピューティングにおける動的ディープニューラルネットワークのバックドア攻撃
- Authors: Tian Dong, Ziyuan Zhang, Han Qiu, Tianwei Zhang, Hewu Li, Terry Wang
- Abstract要約: 本稿では,動的マルチエクイットDNNモデルに特化して,新たなバックドア攻撃を提案する。
私たちのバックドアは、複数の最先端のバックドア検出や削除方法を回避するためにステルス性があります。
- 参考スコア(独自算出の注目度): 8.69143545268788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transforming off-the-shelf deep neural network (DNN) models into dynamic
multi-exit architectures can achieve inference and transmission efficiency by
fragmenting and distributing a large DNN model in edge computing scenarios
(e.g., edge devices and cloud servers). In this paper, we propose a novel
backdoor attack specifically on the dynamic multi-exit DNN models.
Particularly, we inject a backdoor by poisoning one DNN model's shallow hidden
layers targeting not this vanilla DNN model but only its dynamically deployed
multi-exit architectures. Our backdoored vanilla model behaves normally on
performance and cannot be activated even with the correct trigger. However, the
backdoor will be activated when the victims acquire this model and transform it
into a dynamic multi-exit architecture at their deployment. We conduct
extensive experiments to prove the effectiveness of our attack on three
structures (ResNet-56, VGG-16, and MobileNet) with four datasets (CIFAR-10,
SVHN, GTSRB, and Tiny-ImageNet) and our backdoor is stealthy to evade multiple
state-of-the-art backdoor detection or removal methods.
- Abstract(参考訳): オフザシェルフディープニューラルネットワーク(DNN)モデルを動的マルチエクイットアーキテクチャに変換することで、エッジコンピューティングシナリオ(エッジデバイスやクラウドサーバなど)で大規模なDNNモデルを断片化して分散することにより、推論と送信効率を達成することができる。
本稿では,動的マルチエクイットDNNモデルに特化して,新たなバックドア攻撃を提案する。
特に、このバニラDNNモデルではなく、動的にデプロイされるマルチエグジットアーキテクチャのみを対象として、あるDNNモデルの浅い隠蔽層を汚染することにより、バックドアを注入する。
バックドアのバニラモデルは、通常パフォーマンスで動作し、正しいトリガでもアクティベートできません。
しかし、被害者がこのモデルを取得してデプロイ時に動的にマルチエクイットアーキテクチャに変換すると、バックドアが起動される。
我々は,4つのデータセット(CIFAR-10,SVHN,GTSRB,Tiny-ImageNet)による3つの構造体(ResNet-56,VGG-16,MobileNet)に対する攻撃の有効性を証明するため,広範囲にわたる実験を行った。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - BaDExpert: Extracting Backdoor Functionality for Accurate Backdoor Input
Detection [42.021282816470794]
我々は,Deep Neural Networks(DNN)に対するバックドア攻撃に対する新しい防御法を提案する。
私たちの防衛は、モデルの生成方法とは独立して機能する開発後防衛のカテゴリに分類されます。
モデル推論におけるバックドア入力をフィルタリングする高精度なバックドア入力検出装置の実現可能性を示す。
論文 参考訳(メタデータ) (2023-08-23T21:47:06Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Subnet Replacement: Deployment-stage backdoor attack against deep neural
networks in gray-box setting [3.69409109715429]
本研究では,DNN(Deep Neural Network)に対するバックドアアタック(バックドアアタック)の現実的可能性について検討する。
本稿では,限られた数のモデルパラメータを直接修正することで,バックドアをDNNに埋め込むことのできるSubnet Replacement Attack (SRA)を提案する。
論文 参考訳(メタデータ) (2021-07-15T10:47:13Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Towards Universal Physical Attacks On Cascaded Camera-Lidar 3D Object
Detection Models [16.7400223249581]
マルチモーダル深層学習ネットワーク(DNN)に対する普遍的かつ物理的に実現可能な敵対的攻撃を提案する。
提案されたユニバーサルマルチモーダル攻撃は、モデルが車を73%近く検出する能力を低下させることに成功したことを示す。
論文 参考訳(メタデータ) (2021-01-26T12:40:34Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。