論文の概要: Bridge the Gap Between CV and NLP! A Gradient-based Textual Adversarial
Attack Framework
- arxiv url: http://arxiv.org/abs/2110.15317v1
- Date: Thu, 28 Oct 2021 17:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:52:58.576555
- Title: Bridge the Gap Between CV and NLP! A Gradient-based Textual Adversarial
Attack Framework
- Title(参考訳): CVとNLPの間を橋渡し!
グラデーションに基づくテキスト・アドバーサル・アタック・フレームワーク
- Authors: Lifan Yuan, Yichi Zhang, Yangyi Chen, Wei Wei
- Abstract要約: 勾配に基づく敵攻撃法はコンピュータビジョンの分野でよく研究されている。
テキストの離散的な性質のため、自然言語処理に直接適用するのは現実的ではない。
そこで本研究では,既存の勾配法を適応してテキスト逆数サンプルを作成するための一般的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.952338112906391
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite great success on many machine learning tasks, deep neural networks
are still vulnerable to adversarial samples. While gradient-based adversarial
attack methods are well-explored in the field of computer vision, it is
impractical to directly apply them in natural language processing due to the
discrete nature of text. To bridge this gap, we propose a general framework to
adapt existing gradient-based methods to craft textual adversarial samples. In
this framework, gradient-based continuous perturbations are added to the
embedding layer and are amplified in the forward propagation process. Then the
final perturbed latent representations are decoded with a mask language model
head to obtain potential adversarial samples. In this paper, we instantiate our
framework with \textbf{T}extual \textbf{P}rojected \textbf{G}radient
\textbf{D}escent (\textbf{TPGD}). We conduct comprehensive experiments to
evaluate our framework by performing transfer black-box attacks on BERT,
RoBERTa and ALBERT on three benchmark datasets. Experimental results
demonstrate our method achieves an overall better performance and produces more
fluent and grammatical adversarial samples compared to strong baseline methods.
All the code and data will be made public.
- Abstract(参考訳): 多くの機械学習タスクで大きな成功を収めているが、ディープニューラルネットワークは相反するサンプルに対して脆弱である。
勾配に基づく逆攻撃法はコンピュータビジョンの分野ではよく研究されているが、テキストの離散的な性質から自然言語処理に直接適用することは不可能である。
このギャップを埋めるために,既存のグラデーションベース手法をテキスト逆サンプル作成に適用する汎用フレームワークを提案する。
このフレームワークでは、勾配に基づく連続摂動が埋め込み層に追加され、前方伝播過程において増幅される。
そして、最後の摂動潜在表現をマスク言語モデルヘッドで復号し、潜在的対向サンプルを得る。
本稿では、我々のフレームワークを \textbf{T}extual \textbf{P}rojected \textbf{G}radient \textbf{D}escent (\textbf{TPGD}) でインスタンス化する。
我々は,3つのベンチマークデータセット上でBERT,RoBERTa,ALBERTの転送ブラックボックス攻撃を行うことで,我々のフレームワークを評価するための包括的な実験を行う。
実験結果から,本手法の全体的な性能は向上し,強いベースライン法に比べ,より流麗で文法的な逆サンプルが得られた。
すべてのコードとデータは公開されます。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - READ: Improving Relation Extraction from an ADversarial Perspective [33.44949503459933]
関係抽出(RE)に特化して設計された対角的学習法を提案する。
提案手法では,シーケンスレベルの摂動とトークンレベルの摂動の両方をサンプルに導入し,個別の摂動語彙を用いてエンティティとコンテキストの摂動の探索を改善する。
論文 参考訳(メタデータ) (2024-04-02T16:42:44Z) - SemRoDe: Macro Adversarial Training to Learn Representations That are Robust to Word-Level Attacks [29.942001958562567]
本稿では,セマンティック・ロバスト・ディフェンス(Semantic Robust Defence, セマンティック・ロバスト・ディフェンス, セマンティック・ロバスト・ディフェンス, セマンティック・ロバスト・ディフェンス, セマンティック・ロバスト・ディフェンス, セマンティック・ロバスト・ディフェンス, セマンティック・ロバスト・ディフェンス)
この2つの領域を橋渡しする頑健な表現を学習する。
結果は、最先端の堅牢性を示す。
論文 参考訳(メタデータ) (2024-03-27T10:24:25Z) - AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Generating Natural Language Attacks in a Hard Label Black Box Setting [3.52359746858894]
我々は、ハードラベルブラックボックス設定で自然言語処理モデルを攻撃する重要かつ困難なタスクを研究します。
本研究では, テキスト分類と関連タスクにおいて, 質の高い対比例を作成する意思決定に基づく攻撃戦略を提案する。
論文 参考訳(メタデータ) (2020-12-29T22:01:38Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。