論文の概要: Dispersed Pixel Perturbation-based Imperceptible Backdoor Trigger for
Image Classifier Models
- arxiv url: http://arxiv.org/abs/2208.09336v1
- Date: Fri, 19 Aug 2022 13:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 16:44:25.087016
- Title: Dispersed Pixel Perturbation-based Imperceptible Backdoor Trigger for
Image Classifier Models
- Title(参考訳): 画像分類用画素摂動型非受容型バックドアトリガー
- Authors: Yulong Wang, Minghui Zhao, Shenghong Li, Xin Yuan, Wei Ni
- Abstract要約: 生成が容易で、認識不能で、非常に効果的である新しいバックドアトリガーを提案する。
新しいトリガーは攻撃の成功率を100%近く達成し、分類精度を0.7%-2.4%以下に低下させ、最先端の防御技術を無効にする。
- 参考スコア(独自算出の注目度): 37.44619663266655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical deep neural network (DNN) backdoor attacks are based on triggers
embedded in inputs. Existing imperceptible triggers are computationally
expensive or low in attack success. In this paper, we propose a new backdoor
trigger, which is easy to generate, imperceptible, and highly effective. The
new trigger is a uniformly randomly generated three-dimensional (3D) binary
pattern that can be horizontally and/or vertically repeated and mirrored and
superposed onto three-channel images for training a backdoored DNN model.
Dispersed throughout an image, the new trigger produces weak perturbation to
individual pixels, but collectively holds a strong recognizable pattern to
train and activate the backdoor of the DNN. We also analytically reveal that
the trigger is increasingly effective with the improving resolution of the
images. Experiments are conducted using the ResNet-18 and MLP models on the
MNIST, CIFAR-10, and BTSR datasets. In terms of imperceptibility, the new
trigger outperforms existing triggers, such as BadNets, Trojaned NN, and Hidden
Backdoor, by over an order of magnitude. The new trigger achieves an almost
100% attack success rate, only reduces the classification accuracy by less than
0.7%-2.4%, and invalidates the state-of-the-art defense techniques.
- Abstract(参考訳): 典型的なディープニューラルネットワーク(DNN)バックドア攻撃は、入力に埋め込まれたトリガーに基づいている。
既存のインセプタブルトリガーは計算コストが高いか、攻撃の成功率が低い。
本稿では, 生成が容易で, 認識不能で, 有効性の高い新しいバックドアトリガを提案する。
新しいトリガーは、一様ランダムに生成された3次元(3d)バイナリパターンで、水平および垂直に繰り返し、ミラーされ、バックドア付きdnnモデルをトレーニングするための3チャンネルイメージに重ね合わせられる。
イメージ全体に分散した新しいトリガーは、個々のピクセルに対して弱い摂動を発生させるが、dnnのバックドアを訓練し活性化するための強力な認識パターンを集合的に保持する。
また,画像の解像度向上にトリガーが益々有効であることを解析的に明らかにする。
実験は、MNIST、CIFAR-10、BTSRデータセット上のResNet-18およびMLPモデルを用いて行われた。
認識不能という点では、新しいトリガーはBadNets、Trojaned NN、Hidden Backdoorなどの既存のトリガーを桁違いに上回っている。
新しいトリガーは攻撃の成功率を100%近く達成し、分類精度を0.7%-2.4%以下に低下させ、最先端の防御技術を無効にする。
関連論文リスト
- A4O: All Trigger for One sample [10.78460062665304]
提案されたバックドアディフェンダーは、トリガーが統一された方法で現れるという仮定に依存することが多い。
本稿では,この単純な仮定が抜け穴を生じさせ,より洗練されたバックドア攻撃を回避できることを示す。
我々は,複数の種類のバックドアトリガーを組み込んだ新たなバックドア攻撃機構を設計し,ステルスネスと有効性に着目した。
論文 参考訳(メタデータ) (2025-01-13T10:38:58Z) - An Effective and Resilient Backdoor Attack Framework against Deep Neural Networks and Vision Transformers [22.77836113915616]
本稿では,最適なトリガ形状と位置を探索する,注目に基づく新しいマスク生成手法を提案する。
また、損失関数にQuality-of-Experienceという用語を導入し、トリガの透明性値を慎重に調整する。
提案したバックドア攻撃フレームワークは,最先端のバックドア防御に対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-12-09T02:03:27Z) - Evolutionary Trigger Detection and Lightweight Model Repair Based Backdoor Defense [10.310546695762467]
ディープニューラルネットワーク(DNN)は、自律運転や顔認識など、多くの分野で広く利用されている。
DNNモデルのバックドアは、トリガーによる有毒な入力によってアクティベートされ、誤った予測につながる。
進化的トリガ検出と軽量モデル修復に基づく効率的なバックドア防御を提案する。
論文 参考訳(メタデータ) (2024-07-07T14:50:59Z) - An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Imperceptible Sample-Specific Backdoor to DNN with Denoising Autoencoder [15.393048503634958]
バックドア攻撃は ディープニューラルネットワークに 新たなセキュリティ脅威をもたらす
そこで本研究では, サンプルからサンプルまで, 見えないものまで, トリガーが変化する非受容型サンプル特異的バックドアを提案する。
我々は、ImageNetとMS-Celeb-1Mに対するバックドア攻撃を広範囲に実験した。
論文 参考訳(メタデータ) (2023-02-09T06:33:15Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。