論文の概要: Silent Killer: A Stealthy, Clean-Label, Black-Box Backdoor Attack
- arxiv url: http://arxiv.org/abs/2301.02615v2
- Date: Sun, 1 Oct 2023 16:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 20:38:00.240801
- Title: Silent Killer: A Stealthy, Clean-Label, Black-Box Backdoor Attack
- Title(参考訳): Silent Killer:ステルスでクリーンでブラックボックスのバックドア攻撃
- Authors: Tzvi Lederer, Gallil Maimon and Lior Rokach
- Abstract要約: 我々は、クリーンラベルでブラックボックスの設定で動作する新しい攻撃であるSilent Killerを紹介します。
クリーンラベル攻撃の引き金としてユニバーサル・逆境摂動を用いた場合について検討する。
高い成功率を確保するためには、毒を製造するための勾配調整が必要である。
- 参考スコア(独自算出の注目度): 10.047470656294335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor poisoning attacks pose a well-known risk to neural networks.
However, most studies have focused on lenient threat models. We introduce
Silent Killer, a novel attack that operates in clean-label, black-box settings,
uses a stealthy poison and trigger and outperforms existing methods. We
investigate the use of universal adversarial perturbations as triggers in
clean-label attacks, following the success of such approaches under
poison-label settings. We analyze the success of a naive adaptation and find
that gradient alignment for crafting the poison is required to ensure high
success rates. We conduct thorough experiments on MNIST, CIFAR10, and a reduced
version of ImageNet and achieve state-of-the-art results.
- Abstract(参考訳): バックドア中毒はニューラルネットワークによく知られたリスクをもたらす。
しかし、ほとんどの研究は寛大な脅威モデルに注目している。
クリーンラベルでブラックボックスの設定で動作する新しい攻撃であるSilent Killerを紹介します。
クリーンラベル攻撃の引き金としてユニバーサル・逆境摂動を用いた場合, 有毒ラベル設定下でのアプローチの成功にともなって検討を行った。
ナイーブ適応の成功を解析し,高い成功率を確保するためには,毒素製造のための勾配アライメントが必要であることを見出した。
我々は、MNIST、CIFAR10、ImageNetの縮小版について徹底的な実験を行い、最先端の結果を得た。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Shortcuts Arising from Contrast: Effective and Covert Clean-Label Attacks in Prompt-Based Learning [40.130762098868736]
本稿では、アクティベーション値を活用し、トリガ設計とデータ選択戦略を統合して、より強力なショートカット機能を実現するContrastive Shortcut Injection (CSI) を提案する。
フルショットおよび少数ショットのテキスト分類タスクに関する広範な実験により、CSIの高有効性と高い盗聴性を低毒性率で実証的に検証した。
論文 参考訳(メタデータ) (2024-03-30T20:02:36Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Enhancing Clean Label Backdoor Attack with Two-phase Specific Triggers [6.772389744240447]
クリーンラベルバックドア攻撃を改善するための2相・画像特異的トリガ生成法を提案する。
提案手法は, 高い毒性率, 多くの評価基準下での盗聴性を有し, バックドア防御法に耐性を有する, 優れた攻撃成功率(98.98%)を達成できる。
論文 参考訳(メタデータ) (2022-06-10T05:34:06Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Backdooring and Poisoning Neural Networks with Image-Scaling Attacks [15.807243762876901]
バックドアと毒殺攻撃を隠蔽するための新しい戦略を提案する。
われわれのアプローチは、最近の画像スケーリングに対する攻撃に基づいている。
画像スケーリング攻撃と組み合わせれば,バックドアや中毒も同じように有効であることを示す。
論文 参考訳(メタデータ) (2020-03-19T08:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。