論文の概要: Compression-Resistant Backdoor Attack against Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2201.00672v1
- Date: Mon, 3 Jan 2022 14:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 14:50:58.537157
- Title: Compression-Resistant Backdoor Attack against Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークに対する圧縮耐性バックドア攻撃
- Authors: Mingfu Xue, Xin Wang, Shichang Sun, Yushu Zhang, Jian Wang, and
Weiqiang Liu
- Abstract要約: 近年、訓練データ中毒に基づくバックドア攻撃が数多く提案されている。
実際には、バックドア攻撃は画像圧縮に弱い。
特徴整合性トレーニングに基づく圧縮抵抗型バックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 14.090372810670756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, many backdoor attacks based on training data poisoning have
been proposed. However, in practice, those backdoor attacks are vulnerable to
image compressions. When backdoor instances are compressed, the feature of
specific backdoor trigger will be destroyed, which could result in the backdoor
attack performance deteriorating. In this paper, we propose a
compression-resistant backdoor attack based on feature consistency training. To
the best of our knowledge, this is the first backdoor attack that is robust to
image compressions. First, both backdoor images and their compressed versions
are input into the deep neural network (DNN) for training. Then, the feature of
each image is extracted by internal layers of the DNN. Next, the feature
difference between backdoor images and their compressed versions are minimized.
As a result, the DNN treats the feature of compressed images as the feature of
backdoor images in feature space. After training, the backdoor attack against
DNN is robust to image compression. Furthermore, we consider three different
image compressions (i.e., JPEG, JPEG2000, WEBP) in feature consistency
training, so that the backdoor attack is robust to multiple image compression
algorithms. Experimental results demonstrate the effectiveness and robustness
of the proposed backdoor attack. When the backdoor instances are compressed,
the attack success rate of common backdoor attack is lower than 10%, while the
attack success rate of our compression-resistant backdoor is greater than 97%.
The compression-resistant attack is still robust even when the backdoor images
are compressed with low compression quality. In addition, extensive experiments
have demonstrated that, our compression-resistant backdoor attack has the
generalization ability to resist image compression which is not used in the
training process.
- Abstract(参考訳): 近年,トレーニングデータ中毒に基づくバックドア攻撃が多数提案されている。
しかし実際には、これらのバックドア攻撃は画像圧縮に弱い。
バックドアインスタンスが圧縮されると、特定のバックドアトリガーの特徴が破壊され、バックドア攻撃性能が劣化する可能性がある。
本稿では,特徴整合性トレーニングに基づく圧縮耐性バックドア攻撃を提案する。
私たちの知る限りでは、これは画像圧縮に堅牢な最初のバックドア攻撃です。
まず、バックドアイメージと圧縮バージョンの両方が、トレーニングのためにディープニューラルネットワーク(dnn)に入力される。
そして、各画像の特徴をDNNの内部層から抽出する。
次に、バックドア画像とその圧縮バージョン間の特徴差を最小化する。
結果として、DNNは圧縮画像の特徴を特徴空間内のバックドア画像の特徴として扱う。
トレーニング後、DNNに対するバックドア攻撃は画像圧縮に対して堅牢である。
さらに,3種類の画像圧縮(JPEG,JPEG2000,WEBP)を特徴整合性トレーニングにおいて考慮し,バックドア攻撃が複数の画像圧縮アルゴリズムに対して堅牢であることを示す。
実験結果は,提案するバックドア攻撃の有効性とロバスト性を示す。
バックドアインスタンスを圧縮した場合、一般的なバックドア攻撃の攻撃成功率は10%以下であり、圧縮耐性バックドアの攻撃成功率は97%以上である。
バックドア画像が低圧縮品質で圧縮された場合でも、圧縮耐性攻撃は引き続き堅牢である。
また,我々の圧縮耐性バックドア攻撃は,トレーニングプロセスで使用されていない画像圧縮に抵抗する一般化能力を有することが実証された。
関連論文リスト
- BAN: Detecting Backdoors Activated by Adversarial Neuron Noise [30.243702765232083]
ディープラーニングに対するバックドア攻撃は、最近の研究コミュニティで大きな注目を集めている脅威である。
バックドアディフェンスは主にバックドアのインバージョンに基づいており、これは汎用的でモデルに依存しず、実用的な脅威シナリオに適用可能であることが示されている。
本稿では、追加のニューロンアクティベーション情報を導入して、バックドア検出のためのバックドア特徴インバージョンを改善する。
論文 参考訳(メタデータ) (2024-05-30T10:44:45Z) - Everyone Can Attack: Repurpose Lossy Compression as a Natural Backdoor
Attack [15.017990145799189]
本稿では,サイレントバックドア攻撃に容易にアクセスできるアルゴリズムを誰でも利用できることを示す。
この攻撃のため、敵は以前の作業で見られたトリガージェネレータを設計する必要はない。
論文 参考訳(メタデータ) (2023-08-31T12:38:29Z) - Single Image Backdoor Inversion via Robust Smoothed Classifiers [76.66635991456336]
隠れたバックドアを1枚の画像で復元できるバックドア・インバージョンのための新しいアプローチを提案する。
本研究では,1枚の画像で隠れたバックドアを復元できる,バックドア・インバージョンのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-01T03:37:42Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Imperceptible and Multi-channel Backdoor Attack against Deep Neural
Networks [9.931056642574454]
本稿では,Deep Neural Networksに対する新たな非受容・マルチチャネルバックドアアタックを提案する。
具体的には、カラー画像に対して、DCTステガノグラフィーを用いて、画像の異なるチャネルにトリガを構築する。
実験の結果、N-to-Nバックドア攻撃の平均攻撃成功率は、CIFAR-10データセットで93.95%、TinyImageNetデータセットで91.55%であることがわかった。
論文 参考訳(メタデータ) (2022-01-31T12:19:28Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Robust Backdoor Attacks against Deep Neural Networks in Real Physical
World [6.622414121450076]
ディープニューラルネットワーク(DNN)は様々な応用に広く利用されている。
既存のバックドアのほとんどがデジタルドメインに焦点を当てているが、実際の現実世界におけるバックドア攻撃を調査する研究はほとんどない。
本稿では,物理世界のディープラーニングモデルに対するバックドア攻撃を実装するためのロバストな物理バックドア攻撃手法ptbを提案する。
論文 参考訳(メタデータ) (2021-04-15T11:51:14Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。