論文の概要: Label-Smoothed Backdoor Attack
- arxiv url: http://arxiv.org/abs/2202.11203v1
- Date: Sat, 19 Feb 2022 01:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 17:14:03.494105
- Title: Label-Smoothed Backdoor Attack
- Title(参考訳): ラベルスムースなバックドア攻撃
- Authors: Minlong Peng, Zidi Xiong, Mingming Sun, Ping Li
- Abstract要約: バックドア攻撃は、被害者モデルが事前に設計されたバックドアで注入された任意の入力に対して設計された出力を生成することを目的としている。
高攻撃成功率を達成するため、既存の攻撃手法のほとんどは、汚染されたサンプルのラベルをターゲットクラスに変更している。
この慣行は、しばしば被害者モデルをバックドアに過度に適合させ、攻撃は出力制御に非常に効果的であるが、人間の検査や自動防御アルゴリズムによって容易に識別できる。
- 参考スコア(独自算出の注目度): 26.08845380137252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By injecting a small number of poisoned samples into the training set,
backdoor attacks aim to make the victim model produce designed outputs on any
input injected with pre-designed backdoors. In order to achieve a high attack
success rate using as few poisoned training samples as possible, most existing
attack methods change the labels of the poisoned samples to the target class.
This practice often results in severe over-fitting of the victim model over the
backdoors, making the attack quite effective in output control but easier to be
identified by human inspection or automatic defense algorithms.
In this work, we proposed a label-smoothing strategy to overcome the
over-fitting problem of these attack methods, obtaining a
\textit{Label-Smoothed Backdoor Attack} (LSBA). In the LSBA, the label of the
poisoned sample $\bm{x}$ will be changed to the target class with a probability
of $p_n(\bm{x})$ instead of 100\%, and the value of $p_n(\bm{x})$ is
specifically designed to make the prediction probability the target class be
only slightly greater than those of the other classes. Empirical studies on
several existing backdoor attacks show that our strategy can considerably
improve the stealthiness of these attacks and, at the same time, achieve a high
attack success rate. In addition, our strategy makes it able to manually
control the prediction probability of the design output through manipulating
the applied and activated number of LSBAs\footnote{Source code will be
published at \url{https://github.com/v-mipeng/LabelSmoothedAttack.git}}.
- Abstract(参考訳): トレーニングセットに少量の有毒サンプルを注入することで、バックドア攻撃は、事前に設計されたバックドアで注入された入力に対して、設計されたアウトプットを生成することを目的としている。
有毒なトレーニングサンプルをできるだけ少なく使用して高い攻撃成功率を達成するために、既存の攻撃方法は、有毒なサンプルのラベルをターゲットクラスに変更する。
この慣行は、しばしば被害者モデルをバックドアに過度に適合させ、攻撃は出力制御に非常に効果的であるが、人間の検査や自動防御アルゴリズムによって容易に識別できる。
本研究では,これらの攻撃手法の過剰フィッティング問題を克服するためのラベルスムーシング戦略を提案し,lsba ( \textit{label-smoothed backdoor attack}) を得た。
lsba では、有毒サンプル $\bm{x}$ のラベルは、100\% ではなく $p_n(\bm{x})$ の確率でターゲットクラスに変更され、$p_n(\bm{x})$ の値は、ターゲットクラスが他のクラスよりもわずかに大きい確率になるように特別に設計されている。
いくつかの既存のバックドア攻撃に関する実証研究は、我々の戦略がこれらの攻撃のステルス性を大幅に改善し、同時に高い攻撃成功率を達成できることを示している。
さらに当社の戦略では,lsbas\footnote{source codeの適用される数と有効数を操作することで,設計出力の予測確率を手作業で制御することが可能です。
関連論文リスト
- Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [69.34631376261102]
自己監視学習(SSL)は、バックドア攻撃に対して脆弱である。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - RSBA: Robust Statistical Backdoor Attack under Privilege-Constrained
Scenarios [9.38518049643553]
学習ベースのシステムは、バックドア攻撃に弱いことが示されている。
本稿では,RSBA(Robust Statistical Backdoor Attack under Privilege-Constrained scenarios)を紹介する。
RSBAの画像増倍とモデル蒸留に対するロバスト性を実験的に理論的に実証した。
論文 参考訳(メタデータ) (2023-04-21T14:35:47Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。