論文の概要: Natural Backdoor Attack on Text Data
- arxiv url: http://arxiv.org/abs/2006.16176v4
- Date: Fri, 15 Jan 2021 14:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:14:25.138367
- Title: Natural Backdoor Attack on Text Data
- Title(参考訳): テキストデータの自然なバックドア攻撃
- Authors: Lichao Sun
- Abstract要約: 本論文では,NLPモデルに対するテキストバックドア攻撃を提案する。
テキストデータにトリガーを発生させ,修正範囲,人間認識,特殊事例に基づいて,さまざまな種類のトリガーを調査する。
その結果,テキスト分類作業において100%バックドア攻撃の成功率と0.83%の犠牲となる優れた性能を示した。
- 参考スコア(独自算出の注目度): 15.35163515187413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, advanced NLP models have seen a surge in the usage of various
applications. This raises the security threats of the released models. In
addition to the clean models' unintentional weaknesses, {\em i.e.,} adversarial
attacks, the poisoned models with malicious intentions are much more dangerous
in real life. However, most existing works currently focus on the adversarial
attacks on NLP models instead of positioning attacks, also named
\textit{backdoor attacks}. In this paper, we first propose the \textit{natural
backdoor attacks} on NLP models. Moreover, we exploit the various attack
strategies to generate trigger on text data and investigate different types of
triggers based on modification scope, human recognition, and special cases.
Last, we evaluate the backdoor attacks, and the results show the excellent
performance of with 100\% backdoor attacks success rate and sacrificing of
0.83\% on the text classification task.
- Abstract(参考訳): 近年、先進的なNLPモデルは様々なアプリケーションの利用が急増している。
これにより、リリースモデルのセキュリティの脅威が高まる。
清潔なモデルの意図しない弱点、すなわち敵対的な攻撃に加えて、悪意のある意図を持つ有毒なモデルは現実の生活においてはるかに危険である。
しかし、現在既存の作品の多くは、位置決め攻撃ではなく、nlpモデルの敵対的な攻撃に焦点を当てている。
本稿ではまず,NLPモデルに対するtextit{natural backdoor attack}を提案する。
さらに,様々な攻撃戦略を用いてテキストデータにトリガを生成し,修正範囲,人間認識,特殊事例に基づいて様々なトリガを探索する。
最後に, バックドア攻撃の評価を行い, テキスト分類作業において, 100 % のバックドア攻撃の成功率と 0.83 % の犠牲効果が得られた。
関連論文リスト
- Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Backdoor Pre-trained Models Can Transfer to All [33.720258110911274]
そこで本研究では,トリガを含む入力を事前学習したNLPモデルの出力表現に直接マッピングする手法を提案する。
NLPにおけるトリガのユニークな特性を考慮して,バックドア攻撃の性能を測定するための2つの新しい指標を提案する。
論文 参考訳(メタデータ) (2021-10-30T07:11:24Z) - Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text
Style Transfer [49.67011295450601]
我々は,テキストスタイルの転送をベースとして,敵対的かつバックドア攻撃を行うための最初の試みを行う。
実験結果から,一般的なNLPモデルは,テキストスタイルの転送に基づく逆行攻撃とバックドア攻撃の両方に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-10-14T03:54:16Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - BadNL: Backdoor Attacks against NLP Models with Semantic-preserving
Improvements [33.309299864983295]
我々は,新たな攻撃方法を含む一般的なNLPバックドア攻撃フレームワークであるBadNLを提案する。
我々の攻撃は、原モデルの実用性に無視できる効果で、ほぼ完璧な攻撃成功率を達成する。
論文 参考訳(メタデータ) (2020-06-01T16:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。