論文の概要: Imperceptible and Multi-channel Backdoor Attack against Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2201.13164v1
- Date: Mon, 31 Jan 2022 12:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:00:01.459380
- Title: Imperceptible and Multi-channel Backdoor Attack against Deep Neural
Networks
- Title(参考訳): 深層ニューラルネットワークに対する非受容・マルチチャネルバックドアアタック
- Authors: Mingfu Xue, Shifeng Ni, Yinghao Wu, Yushu Zhang, Jian Wang, Weiqiang
Liu
- Abstract要約: 本稿では,Deep Neural Networksに対する新たな非受容・マルチチャネルバックドアアタックを提案する。
具体的には、カラー画像に対して、DCTステガノグラフィーを用いて、画像の異なるチャネルにトリガを構築する。
実験の結果、N-to-Nバックドア攻撃の平均攻撃成功率は、CIFAR-10データセットで93.95%、TinyImageNetデータセットで91.55%であることがわかった。
- 参考スコア(独自算出の注目度): 9.931056642574454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent researches demonstrate that Deep Neural Networks (DNN) models are
vulnerable to backdoor attacks. The backdoored DNN model will behave
maliciously when images containing backdoor triggers arrive. To date, existing
backdoor attacks are single-trigger and single-target attacks, and the triggers
of most existing backdoor attacks are obvious thus are easy to be detected or
noticed. In this paper, we propose a novel imperceptible and multi-channel
backdoor attack against Deep Neural Networks by exploiting Discrete Cosine
Transform (DCT) steganography. Based on the proposed backdoor attack method, we
implement two variants of backdoor attacks, i.e., N-to-N backdoor attack and
N-to-One backdoor attack. Specifically, for a colored image, we utilize DCT
steganography to construct the trigger on different channels of the image. As a
result, the trigger is stealthy and natural. Based on the proposed method, we
implement multi-target and multi-trigger backdoor attacks. Experimental results
demonstrate that the average attack success rate of the N-to-N backdoor attack
is 93.95% on CIFAR-10 dataset and 91.55% on TinyImageNet dataset, respectively.
The average attack success rate of N-to-One attack is 90.22% and 89.53% on
CIFAR-10 and TinyImageNet datasets, respectively. Meanwhile, the proposed
backdoor attack does not affect the classification accuracy of the DNN model.
Moreover, the proposed attack is demonstrated to be robust to the
state-of-the-art backdoor defense (Neural Cleanse).
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)モデルがバックドア攻撃に弱いことが示されている。
バックドアのDNNモデルは、バックドアトリガーを含むイメージが到着すると悪意ある振る舞いをする。
現在まで、既存のバックドア攻撃はシングルトリガー攻撃とシングルターゲット攻撃であり、既存のバックドア攻撃のトリガーは明らかであり、検出や検出が容易である。
本稿では,離散コサイン変換(DCT)ステガノグラフィーを用いて,ニューラルネットに対する新たな非受容・マルチチャネルバックドア攻撃を提案する。
提案手法に基づいて,N-to-Nバックドア攻撃とN-to-Oneバックドア攻撃という2種類のバックドア攻撃を実装した。
具体的には、カラー画像に対して、DCTステガノグラフィーを用いて、画像の異なるチャネルにトリガを構築する。
その結果、トリガーはステルスで自然なものになった。
提案手法に基づいて,マルチターゲットおよびマルチトリガーバックドア攻撃を実装した。
実験の結果、N-to-Nバックドア攻撃の平均攻撃成功率は、CIFAR-10データセットで93.95%、TinyImageNetデータセットで91.55%であった。
N対1攻撃の平均攻撃成功率は、CIFAR-10とTinyImageNetデータセットでそれぞれ90.22%と89.53%である。
一方,提案するバックドア攻撃は,dnnモデルの分類精度に影響を与えない。
さらに,提案した攻撃は,最先端のバックドア防御(ニューラルクリーンス)に対して堅牢であることを示す。
関連論文リスト
- BeniFul: Backdoor Defense via Middle Feature Analysis for Deep Neural Networks [0.6872939325656702]
提案手法は,グレーボックスのバックドア入力検出とホワイトボックスのバックドア除去という2つの部分から構成される。
CIFAR-10とTiny ImageNetの5つの攻撃に対する実験結果から、我々のBeniFulは、バックドア入力検出とバックドア除去において優れた防御能力を示すことが示された。
論文 参考訳(メタデータ) (2024-10-15T13:14:55Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。