論文の概要: Silent Killer: Optimizing Backdoor Trigger Yields a Stealthy and
Powerful Data Poisoning Attack
- arxiv url: http://arxiv.org/abs/2301.02615v1
- Date: Thu, 5 Jan 2023 15:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:15:39.453818
- Title: Silent Killer: Optimizing Backdoor Trigger Yields a Stealthy and
Powerful Data Poisoning Attack
- Title(参考訳): Silent Killer: バックドアのトリガーを最適化して盗品を盗む
- Authors: Tzvi Lederer, Gallil Maimon and Lior Rokach
- Abstract要約: データ中毒(DP)に基づくニューラルネットワークに対するステルスで強力なバックドア攻撃を提案する。
これまでの攻撃とは対照的に、我々の方法の毒と引き金はどちらもステルス性である。
我々の攻撃は、クリーンサンプルの精度を維持しながら、攻撃成功率の観点から、最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 12.34118528022858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a stealthy and powerful backdoor attack on neural networks based
on data poisoning (DP). In contrast to previous attacks, both the poison and
the trigger in our method are stealthy. We are able to change the model's
classification of samples from a source class to a target class chosen by the
attacker. We do so by using a small number of poisoned training samples with
nearly imperceptible perturbations, without changing their labels. At inference
time, we use a stealthy perturbation added to the attacked samples as a
trigger. This perturbation is crafted as a universal adversarial perturbation
(UAP), and the poison is crafted using gradient alignment coupled to this
trigger. Our method is highly efficient in crafting time compared to previous
methods and requires only a trained surrogate model without additional
retraining. Our attack achieves state-of-the-art results in terms of attack
success rate while maintaining high accuracy on clean samples.
- Abstract(参考訳): データ中毒(DP)に基づくニューラルネットワークに対するステルスで強力なバックドア攻撃を提案する。
以前の攻撃とは対照的に、我々の方法では毒とトリガーの両方がステルスです。
我々は、モデルのサンプルの分類を、ソースクラスから攻撃者が選択したターゲットクラスに変更することができる。
私たちは、ラベルを変更することなく、ほとんど知覚不能な摂動を伴う少数の有毒なトレーニングサンプルを使用することで、そうします。
推測時には、攻撃されたサンプルにステルスな摂動をトリガーとして使用する。
この摂動は普遍的対向摂動(UAP)として作られ、この引き金と結合した勾配アライメントを用いて毒を生産する。
提案手法は, 従来手法に比べて工法時間が非常に効率的であり, 追加再訓練を行わず, 訓練された代理モデルのみを必要とする。
本攻撃は,クリーンサンプルの精度を維持しつつ,攻撃成功率の観点から最先端の成果を得る。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Shortcuts Arising from Contrast: Effective and Covert Clean-Label Attacks in Prompt-Based Learning [40.130762098868736]
本稿では、アクティベーション値を活用し、トリガ設計とデータ選択戦略を統合して、より強力なショートカット機能を実現するContrastive Shortcut Injection (CSI) を提案する。
フルショットおよび少数ショットのテキスト分類タスクに関する広範な実験により、CSIの高有効性と高い盗聴性を低毒性率で実証的に検証した。
論文 参考訳(メタデータ) (2024-03-30T20:02:36Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Enhancing Clean Label Backdoor Attack with Two-phase Specific Triggers [6.772389744240447]
クリーンラベルバックドア攻撃を改善するための2相・画像特異的トリガ生成法を提案する。
提案手法は, 高い毒性率, 多くの評価基準下での盗聴性を有し, バックドア防御法に耐性を有する, 優れた攻撃成功率(98.98%)を達成できる。
論文 参考訳(メタデータ) (2022-06-10T05:34:06Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Backdooring and Poisoning Neural Networks with Image-Scaling Attacks [15.807243762876901]
バックドアと毒殺攻撃を隠蔽するための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
画像スケーリング攻撃と組み合わせれば,バックドアや中毒も同じように有効であることを示す。
論文 参考訳(メタデータ) (2020-03-19T08:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。