論文の概要: Dispersed Pixel Perturbation-based Imperceptible Backdoor Trigger for
Image Classifier Models
- arxiv url: http://arxiv.org/abs/2208.09336v1
- Date: Fri, 19 Aug 2022 13:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 16:44:25.087016
- Title: Dispersed Pixel Perturbation-based Imperceptible Backdoor Trigger for
Image Classifier Models
- Title(参考訳): 画像分類用画素摂動型非受容型バックドアトリガー
- Authors: Yulong Wang, Minghui Zhao, Shenghong Li, Xin Yuan, Wei Ni
- Abstract要約: 生成が容易で、認識不能で、非常に効果的である新しいバックドアトリガーを提案する。
新しいトリガーは攻撃の成功率を100%近く達成し、分類精度を0.7%-2.4%以下に低下させ、最先端の防御技術を無効にする。
- 参考スコア(独自算出の注目度): 37.44619663266655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical deep neural network (DNN) backdoor attacks are based on triggers
embedded in inputs. Existing imperceptible triggers are computationally
expensive or low in attack success. In this paper, we propose a new backdoor
trigger, which is easy to generate, imperceptible, and highly effective. The
new trigger is a uniformly randomly generated three-dimensional (3D) binary
pattern that can be horizontally and/or vertically repeated and mirrored and
superposed onto three-channel images for training a backdoored DNN model.
Dispersed throughout an image, the new trigger produces weak perturbation to
individual pixels, but collectively holds a strong recognizable pattern to
train and activate the backdoor of the DNN. We also analytically reveal that
the trigger is increasingly effective with the improving resolution of the
images. Experiments are conducted using the ResNet-18 and MLP models on the
MNIST, CIFAR-10, and BTSR datasets. In terms of imperceptibility, the new
trigger outperforms existing triggers, such as BadNets, Trojaned NN, and Hidden
Backdoor, by over an order of magnitude. The new trigger achieves an almost
100% attack success rate, only reduces the classification accuracy by less than
0.7%-2.4%, and invalidates the state-of-the-art defense techniques.
- Abstract(参考訳): 典型的なディープニューラルネットワーク(DNN)バックドア攻撃は、入力に埋め込まれたトリガーに基づいている。
既存のインセプタブルトリガーは計算コストが高いか、攻撃の成功率が低い。
本稿では, 生成が容易で, 認識不能で, 有効性の高い新しいバックドアトリガを提案する。
新しいトリガーは、一様ランダムに生成された3次元(3d)バイナリパターンで、水平および垂直に繰り返し、ミラーされ、バックドア付きdnnモデルをトレーニングするための3チャンネルイメージに重ね合わせられる。
イメージ全体に分散した新しいトリガーは、個々のピクセルに対して弱い摂動を発生させるが、dnnのバックドアを訓練し活性化するための強力な認識パターンを集合的に保持する。
また,画像の解像度向上にトリガーが益々有効であることを解析的に明らかにする。
実験は、MNIST、CIFAR-10、BTSRデータセット上のResNet-18およびMLPモデルを用いて行われた。
認識不能という点では、新しいトリガーはBadNets、Trojaned NN、Hidden Backdoorなどの既存のトリガーを桁違いに上回っている。
新しいトリガーは攻撃の成功率を100%近く達成し、分類精度を0.7%-2.4%以下に低下させ、最先端の防御技術を無効にする。
関連論文リスト
- Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - Is It Possible to Backdoor Face Forgery Detection with Natural Triggers? [20.54640502001717]
顔偽造検出モデルに対する新たな分析・合成バックドアアタックを提案する。
本手法は高い攻撃成功率(99%以上)を達成し,低毒性率(3%未満)のモデル精度低下(0.2%以下)を生じさせる。
論文 参考訳(メタデータ) (2023-12-31T07:16:10Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Imperceptible Backdoor Attack: From Input Space to Feature
Representation [24.82632240825927]
バックドア攻撃はディープニューラルネットワーク(DNN)への脅威が急速に高まっている
本稿では,既存の攻撃手法の欠点を分析し,新たな非受容的バックドア攻撃を提案する。
我々のトリガーは、良性画像の1%以下のピクセルしか変更せず、大きさは1。
論文 参考訳(メタデータ) (2022-05-06T13:02:26Z) - Imperceptible and Multi-channel Backdoor Attack against Deep Neural
Networks [9.931056642574454]
本稿では,Deep Neural Networksに対する新たな非受容・マルチチャネルバックドアアタックを提案する。
具体的には、カラー画像に対して、DCTステガノグラフィーを用いて、画像の異なるチャネルにトリガを構築する。
実験の結果、N-to-Nバックドア攻撃の平均攻撃成功率は、CIFAR-10データセットで93.95%、TinyImageNetデータセットで91.55%であることがわかった。
論文 参考訳(メタデータ) (2022-01-31T12:19:28Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。