論文の概要: Contextualized Perturbation for Textual Adversarial Attack
- arxiv url: http://arxiv.org/abs/2009.07502v2
- Date: Mon, 15 Mar 2021 04:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:54:54.446770
- Title: Contextualized Perturbation for Textual Adversarial Attack
- Title(参考訳): テキスト・アタックにおける文脈的摂動
- Authors: Dianqi Li, Yizhe Zhang, Hao Peng, Liqun Chen, Chris Brockett,
Ming-Ting Sun, Bill Dolan
- Abstract要約: 逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
- 参考スコア(独自算出の注目度): 56.370304308573274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples expose the vulnerabilities of natural language
processing (NLP) models, and can be used to evaluate and improve their
robustness. Existing techniques of generating such examples are typically
driven by local heuristic rules that are agnostic to the context, often
resulting in unnatural and ungrammatical outputs. This paper presents CLARE, a
ContextuaLized AdversaRial Example generation model that produces fluent and
grammatical outputs through a mask-then-infill procedure. CLARE builds on a
pre-trained masked language model and modifies the inputs in a context-aware
manner. We propose three contextualized perturbations, Replace, Insert and
Merge, allowing for generating outputs of varied lengths. With a richer range
of available strategies, CLARE is able to attack a victim model more
efficiently with fewer edits. Extensive experiments and human evaluation
demonstrate that CLARE outperforms the baselines in terms of attack success
rate, textual similarity, fluency and grammaticality.
- Abstract(参考訳): 敵対的な例は自然言語処理(nlp)モデルの脆弱性を公開し、その堅牢性の評価と改善に使用できる。
そのような例を生成する既存の技術は、典型的には文脈に依存しない局所的ヒューリスティックな規則によって駆動され、しばしば非自然で非文法的な出力をもたらす。
そこで本稿では,マスク-then-infillプロシージャを用いて,流動的で文法的な出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
CLAREはトレーニング済みのマスク付き言語モデルに基づいて構築され、コンテキスト対応の方法で入力を変更する。
コンテクスト化された3つの摂動(Replace, Insert, Merge)を提案し,様々な長さの出力を生成する。
利用可能な戦略が豊富なため、CLAREはより少ない編集で犠牲者モデルをより効率的に攻撃することができる。
大規模な実験と人的評価により、CLAREは攻撃の成功率、テキストの類似性、流布性、文法性においてベースラインを上回っていることが示された。
関連論文リスト
- A Constraint-Enforcing Reward for Adversarial Attacks on Text Classifiers [10.063169009242682]
逆例を生成するために,エンコーダ-デコーダパラフレーズモデルを訓練する。
我々は強化学習アルゴリズムを採用し、制約付き報酬を提案する。
提案手法の主な設計選択が生成した例にどのように影響するかを示し,提案手法の長所と短所について議論する。
論文 参考訳(メタデータ) (2024-05-20T09:33:43Z) - Click: Controllable Text Generation with Sequence Likelihood Contrastive
Learning [69.35360098882606]
制御可能なテキスト生成のためのClickを導入し、モデルアーキテクチャを変更する必要はない。
シークエンス確率は対照的な損失を伴い、負のサンプルの生成確率を根本的に低下させる。
また、モデル世代から対照的なサンプルを構築するための、新しいランキングベースの戦略も採用している。
論文 参考訳(メタデータ) (2023-06-06T01:56:44Z) - Frauds Bargain Attack: Generating Adversarial Text Samples via Word
Manipulation Process [9.269657271777527]
本研究では,Fraud's Bargain Attackと呼ばれる新たな手法を提案する。
ランダム化機構を用いて探索空間を拡張し、高品質な敵の例を生成する。
成功率、不受容性、文質の点で他の方法よりも優れています。
論文 参考訳(メタデータ) (2023-03-01T06:04:25Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Phrase-level Textual Adversarial Attack with Label Preservation [34.42846737465045]
本稿では,フレーズレベルの摂動を通じて対数サンプルを生成するPhrase-Level Textual Adrial aTtack (PLAT)を提案する。
PLATは強力なベースラインよりも攻撃効率が優れ、ラベルの一貫性も優れている。
論文 参考訳(メタデータ) (2022-05-22T02:22:38Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - CAT-Gen: Improving Robustness in NLP Models via Controlled Adversarial
Text Generation [20.27052525082402]
本稿では,制御可能な属性による逆テキストを生成する制御付き逆テキスト生成(CAT-Gen)モデルを提案する。
実世界のNLPデータセットを用いた実験により,本手法はより多種多様な逆数文を生成することができることが示された。
論文 参考訳(メタデータ) (2020-10-05T21:07:45Z) - Generating Natural Language Adversarial Examples on a Large Scale with
Generative Models [41.85006993382117]
生成モデルを用いて,テキストをスクラッチから効率的に生成するエンド・ツー・エンド・ソリューションを提案する。
具体的には,条件付き変分オートエンコーダを訓練し,さらに逆転損失を加えて,逆転例の生成を誘導する。
敵対的テキストの妥当性を向上させるために,識別器と生成的敵対的ネットワークの訓練枠組みを利用する。
論文 参考訳(メタデータ) (2020-03-10T03:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。