論文の概要: HaS-Nets: A Heal and Select Mechanism to Defend DNNs Against Backdoor
Attacks for Data Collection Scenarios
- arxiv url: http://arxiv.org/abs/2012.07474v1
- Date: Mon, 14 Dec 2020 12:47:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:17:08.203478
- Title: HaS-Nets: A Heal and Select Mechanism to Defend DNNs Against Backdoor
Attacks for Data Collection Scenarios
- Title(参考訳): HaS-Nets:データ収集シナリオに対するバックドアアタックに対するDNNの修復と選択のメカニズム
- Authors: Hassan Ali, Surya Nepal, Salil S. Kanhere and Sanjay Jha
- Abstract要約: ロー信頼バックドア攻撃」は、有毒な訓練サンプルに割り当てられた信頼ラベルを悪用する。
HaS-Nets"はデータセットから独立して、AISを90%以上から15%未満に削減することができる。
- 参考スコア(独自算出の注目度): 23.898803100714957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have witnessed the continuing arms race between backdoor attacks and the
corresponding defense strategies on Deep Neural Networks (DNNs). Most
state-of-the-art defenses rely on the statistical sanitization of the "inputs"
or "latent DNN representations" to capture trojan behaviour. In this paper, we
first challenge the robustness of such recently reported defenses by
introducing a novel variant of targeted backdoor attack, called "low-confidence
backdoor attack". We also propose a novel defense technique, called "HaS-Nets".
"Low-confidence backdoor attack" exploits the confidence labels assigned to
poisoned training samples by giving low values to hide their presence from the
defender, both during training and inference. We evaluate the attack against
four state-of-the-art defense methods, viz., STRIP, Gradient-Shaping, Februus
and ULP-defense, and achieve Attack Success Rate (ASR) of 99%, 63.73%, 91.2%
and 80%, respectively.
We next present "HaS-Nets" to resist backdoor insertion in the network during
training, using a reasonably small healing dataset, approximately 2% to 15% of
full training data, to heal the network at each iteration. We evaluate it for
different datasets - Fashion-MNIST, CIFAR-10, Consumer Complaint and Urban
Sound - and network architectures - MLPs, 2D-CNNs, 1D-CNNs. Our experiments
show that "HaS-Nets" can decrease ASRs from over 90% to less than 15%,
independent of the dataset, attack configuration and network architecture.
- Abstract(参考訳): 我々は、バックドア攻撃とDeep Neural Networks(DNN)の防衛戦略の継続する武器競争を目撃した。
ほとんどの最先端の防衛は、トロイの木馬の行動を捉えるために「インプット」または「ラテントDNN表現」の統計的サニタイズに依存している。
本稿では,最近報告された攻撃のロバスト性に最初に挑戦し,「低信頼バックドアアタック」と呼ばれる新しいバックドアアタックを導入した。
また、「HaS-Nets」と呼ばれる新しい防衛手法を提案する。
信頼度の低いバックドア攻撃」は、トレーニング中も推論中も、ディフェンダーからその存在を隠すために低い値を与えることにより、有毒なトレーニングサンプルに割り当てられた信頼ラベルを利用する。
現状の4つの防衛手法(viz., STRIP, Gradient-Shaping, Februus, ULP-defense)に対する攻撃を評価し, それぞれ99%, 63.73%, 91.2%, 80%の攻撃成功率(ASR)を達成した。
次に、トレーニング中にネットワークのバックドア挿入に抵抗する"HaS-Nets"を提案し、トレーニングデータの約2%から15%の小さなヒーリングデータセットを使用して、各イテレーションでネットワークを修復する。
ファッションmnist, cifar-10, consumer complaint and urban sound, and network architectures (mlps, 2d-cnns, 1d-cnns) について評価した。
実験の結果,データセットやアタック構成,ネットワークアーキテクチャから独立して,ASRを90%以上から15%未満に削減できることがわかった。
関連論文リスト
- Beating Backdoor Attack at Its Own Game [10.131734154410763]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
既存の防御方法は、攻撃の成功率を大幅に低下させた。
有害な試料を標的とした非敵のバックドアを注入する高効率な枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-28T13:07:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Adaptively Splitting Poisoned Dataset [57.70673801469096]
バックドアの防御は、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪意ある変更を受けていることの脅威を軽減するために研究されている。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本フレームワークでは,適応的分割型データセットベースディフェンス(ASD)を提案する。
論文 参考訳(メタデータ) (2023-03-23T02:16:38Z) - Trap and Replace: Defending Backdoor Attacks by Trapping Them into an
Easy-to-Replace Subnetwork [105.0735256031911]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本研究は,バックドアの有害な影響を除去しやすくする,新たなバックドア防衛戦略を提案する。
我々は10種類のバックドア攻撃に対して本手法を評価した。
論文 参考訳(メタデータ) (2022-10-12T17:24:01Z) - Imperceptible and Multi-channel Backdoor Attack against Deep Neural
Networks [9.931056642574454]
本稿では,Deep Neural Networksに対する新たな非受容・マルチチャネルバックドアアタックを提案する。
具体的には、カラー画像に対して、DCTステガノグラフィーを用いて、画像の異なるチャネルにトリガを構築する。
実験の結果、N-to-Nバックドア攻撃の平均攻撃成功率は、CIFAR-10データセットで93.95%、TinyImageNetデータセットで91.55%であることがわかった。
論文 参考訳(メタデータ) (2022-01-31T12:19:28Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - ONION: A Simple and Effective Defense Against Textual Backdoor Attacks [91.83014758036575]
バックドア攻撃は、ディープニューラルネットワーク(DNN)に対する創発的な訓練時間の脅威である
本論文では,ONION という,シンプルで効果的なテキストバックドア・ディフェンスを提案する。
実験では,5種類のバックドア攻撃に対するBiLSTMとBERTの防御効果を示す。
論文 参考訳(メタデータ) (2020-11-20T12:17:21Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - BadNL: Backdoor Attacks against NLP Models with Semantic-preserving
Improvements [33.309299864983295]
我々は,新たな攻撃方法を含む一般的なNLPバックドア攻撃フレームワークであるBadNLを提案する。
我々の攻撃は、原モデルの実用性に無視できる効果で、ほぼ完璧な攻撃成功率を達成する。
論文 参考訳(メタデータ) (2020-06-01T16:17:14Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。