論文の概要: Enhancing Clean Label Backdoor Attack with Two-phase Specific Triggers
- arxiv url: http://arxiv.org/abs/2206.04881v1
- Date: Fri, 10 Jun 2022 05:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 14:59:22.347403
- Title: Enhancing Clean Label Backdoor Attack with Two-phase Specific Triggers
- Title(参考訳): 2相特異的トリガーによるクリーンラベルバックドア攻撃の増強
- Authors: Nan Luo, Yuanzhang Li, Yajie Wang, Shangbo Wu, Yu-an Tan and Quanxin
Zhang
- Abstract要約: クリーンラベルバックドア攻撃を改善するための2相・画像特異的トリガ生成法を提案する。
提案手法は, 高い毒性率, 多くの評価基準下での盗聴性を有し, バックドア防御法に耐性を有する, 優れた攻撃成功率(98.98%)を達成できる。
- 参考スコア(独自算出の注目度): 6.772389744240447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks threaten Deep Neural Networks (DNNs). Towards stealthiness,
researchers propose clean-label backdoor attacks, which require the adversaries
not to alter the labels of the poisoned training datasets. Clean-label settings
make the attack more stealthy due to the correct image-label pairs, but some
problems still exist: first, traditional methods for poisoning training data
are ineffective; second, traditional triggers are not stealthy which are still
perceptible. To solve these problems, we propose a two-phase and image-specific
triggers generation method to enhance clean-label backdoor attacks. Our methods
are (1) powerful: our triggers can both promote the two phases (i.e., the
backdoor implantation and activation phase) in backdoor attacks simultaneously;
(2) stealthy: our triggers are generated from each image. They are
image-specific instead of fixed triggers. Extensive experiments demonstrate
that our approach can achieve a fantastic attack success rate~(98.98%) with low
poisoning rate~(5%), high stealthiness under many evaluation metrics and is
resistant to backdoor defense methods.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)を脅かす。
ステルス化に向けて、研究者は、毒入りトレーニングデータセットのラベルを変更しないように敵に要求するクリーンラベルバックドア攻撃を提案する。
クリーンなラベル設定は、正しいイメージラベルペアのために攻撃をよりステルス的にするが、いくつかの問題がまだ残っている: トレーニングデータを害する従来の方法が効果がない; 第二に、従来のトリガーは、まだ認識可能なステルス性ではない。
これらの問題を解決するため,我々は,クリーンラベルバックドア攻撃を強化するために,二相および画像特異的トリガー生成法を提案する。
本手法は,(1)バックドア攻撃における2つのフェーズ(つまり,バックドア注入とアクティベーションフェーズ)を同時に促進できる,(2)ステルス:各画像からトリガーが生成される,という強力な方法である。
これらは固定トリガーではなくイメージ固有である。
広範囲にわたる実験により, 本手法は, 低毒性率~(5%), 多くの評価基準下で高い盗聴性を示し, バックドア防御法に耐性があることが確認された。
関連論文リスト
- Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Towards Stealthy Backdoor Attacks against Speech Recognition via
Elements of Sound [9.24846124692153]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、音声認識の様々な応用に広く採用され、導入されている。
本稿では,音声認識に対する毒のみのバックドア攻撃について再検討する。
我々は音(例えば、ピッチと音色)の要素を利用して、よりステルスで効果的な毒のみのバックドア攻撃を設計する。
論文 参考訳(メタデータ) (2023-07-17T02:58:25Z) - A Dual Stealthy Backdoor: From Both Spatial and Frequency Perspectives [17.024143511814245]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
バックドアモデルは、よく設計されたトリガーが埋め込まれた入力に対して、任意の(ターゲット化された)誤った予測を行う。
本研究では,空間領域と周波数領域の両方におけるトリガの視認性を同時に考慮した,DUBAと呼ばれる2次元ステルスBAckdoor攻撃法を提案する。
論文 参考訳(メタデータ) (2023-07-03T12:28:44Z) - Silent Killer: A Stealthy, Clean-Label, Black-Box Backdoor Attack [10.047470656294335]
我々は、クリーンラベルでブラックボックスの設定で動作する新しい攻撃であるSilent Killerを紹介します。
クリーンラベル攻撃の引き金としてユニバーサル・逆境摂動を用いた場合について検討する。
高い成功率を確保するためには、毒を製造するための勾配調整が必要である。
論文 参考訳(メタデータ) (2023-01-05T15:11:05Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - BITE: Textual Backdoor Attacks with Iterative Trigger Injection [24.76186072273438]
バックドア攻撃はNLPシステムにとって新たな脅威となっている。
有害なトレーニングデータを提供することで、敵は被害者モデルに"バックドア"を埋め込むことができる。
ターゲットラベルと「トリガーワード」のセットとの間に強い相関関係を確立するため、トレーニングデータを害するバックドアアタックであるBITEを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:58:38Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。