論文の概要: TextAttack: A Framework for Adversarial Attacks, Data Augmentation, and
Adversarial Training in NLP
- arxiv url: http://arxiv.org/abs/2005.05909v4
- Date: Mon, 5 Oct 2020 00:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 10:07:40.244600
- Title: TextAttack: A Framework for Adversarial Attacks, Data Augmentation, and
Adversarial Training in NLP
- Title(参考訳): textattack: nlpにおけるadversarial attack, data augmentation, adversarial trainingのためのフレームワーク
- Authors: John X. Morris, Eli Lifland, Jin Yong Yoo, Jake Grigsby, Di Jin and
Yanjun Qi
- Abstract要約: TextAttackは、NLPにおける敵対的攻撃、データ拡張、および敵対的トレーニングのためのPythonフレームワークである。
文献からの16の敵攻撃の実装を提供し、さまざまなモデルとデータセットをサポートしている。
TextAttackは、NLPを民主化している。誰でも、ほんの数行のコードで、どんなモデルやデータセットでも、データ拡張と敵対的なトレーニングを試すことができる。
- 参考スコア(独自算出の注目度): 31.50366278386976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there has been substantial research using adversarial attacks to
analyze NLP models, each attack is implemented in its own code repository. It
remains challenging to develop NLP attacks and utilize them to improve model
performance. This paper introduces TextAttack, a Python framework for
adversarial attacks, data augmentation, and adversarial training in NLP.
TextAttack builds attacks from four components: a goal function, a set of
constraints, a transformation, and a search method. TextAttack's modular design
enables researchers to easily construct attacks from combinations of novel and
existing components. TextAttack provides implementations of 16 adversarial
attacks from the literature and supports a variety of models and datasets,
including BERT and other transformers, and all GLUE tasks. TextAttack also
includes data augmentation and adversarial training modules for using
components of adversarial attacks to improve model accuracy and robustness.
TextAttack is democratizing NLP: anyone can try data augmentation and
adversarial training on any model or dataset, with just a few lines of code.
Code and tutorials are available at https://github.com/QData/TextAttack.
- Abstract(参考訳): nlpモデルの解析に敵意攻撃を用いる研究が盛んに行われているが、それぞれの攻撃は自身のコードリポジトリに実装されている。
NLP攻撃を開発し、それを利用してモデル性能を改善することは依然として困難である。
本稿では,NLPにおける逆攻撃,データ拡張,および逆トレーニングのためのPythonフレームワークであるTextAttackを紹介する。
TextAttackは、ゴール関数、制約のセット、変換、検索メソッドの4つのコンポーネントから攻撃を構築する。
TextAttackのモジュール設計により、研究者は新しいコンポーネントと既存のコンポーネントの組み合わせから簡単に攻撃を構築できる。
TextAttackは文学からの16の敵攻撃の実装を提供し、BERTや他のトランスフォーマーを含むさまざまなモデルとデータセット、およびすべてのGLUEタスクをサポートする。
TextAttackには、モデル精度と堅牢性を改善するために、逆攻撃のコンポーネントを使用するデータ拡張と逆トレーニングモジュールも含まれている。
TextAttackは、NLPを民主化している。誰でも、ほんの数行のコードで、どんなモデルやデータセットでも、データ拡張と逆トレーニングを試すことができる。
コードとチュートリアルはhttps://github.com/qdata/textattack.com/で入手できる。
関連論文リスト
- Two-in-One: A Model Hijacking Attack Against Text Generation Models [19.826236952700256]
我々は,異なるテキスト分類タスクを複数の世代にハイジャックできる新しいモデルハイジャック攻撃であるDittoを提案する。
提案手法は,Dittoを用いてテキスト生成モデルをハイジャックし,その利便性を損なうことなく実現可能であることを示す。
論文 参考訳(メタデータ) (2023-05-12T12:13:27Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - TextDefense: Adversarial Text Detection based on Word Importance Entropy [38.632552667871295]
NLPモデルの新たな逆例検出フレームワークであるTextDefenseを提案する。
実験の結果,TextDefenseは異なるアーキテクチャ,データセット,アタックメソッドに適用可能であることがわかった。
我々はNLPの敵攻撃と防衛方法の原理に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-02-12T11:12:44Z) - Text Revealer: Private Text Reconstruction via Model Inversion Attacks
against Transformers [22.491785618530397]
emphText Revealerを定式化する -- トランスフォーマーを用いたテキスト分類に対するテキスト再構成のための最初のモデル逆転攻撃。
我々の攻撃は、ターゲットモデルへのアクセスにより、トレーニングデータに含まれるプライベートテキストを忠実に再構築する。
実験により,我々の攻撃はテキスト長の異なるデータセットに対して有効であり,正確さでプライベートテキストを再構築できることが実証された。
論文 参考訳(メタデータ) (2022-09-21T17:05:12Z) - Adversarial Text Normalization [2.9434930072968584]
逆テキスト正規化器は、少ない計算オーバーヘッドで攻撃されたコンテンツのベースライン性能を回復する。
テキスト正規化は文字レベルの攻撃に対してタスクに依存しない防御を提供する。
論文 参考訳(メタデータ) (2022-06-08T19:44:03Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - Extracting Training Data from Large Language Models [78.3839333127544]
本論文では,言語モデルに問い合わせることで,学習データ抽出攻撃を実行して個々のトレーニング例を回復できることを実証する。
我々は,公開インターネットのスクレイプ上で訓練された言語モデルgpt-2に対する攻撃を実証し,モデルのトレーニングデータから数百の動詞のテキストシーケンスを抽出することができることを示した。
論文 参考訳(メタデータ) (2020-12-14T18:39:09Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - OpenAttack: An Open-source Textual Adversarial Attack Toolkit [73.22185718706602]
本稿では,これらの問題を解決するために,OpenAttackというオープンソースのテキスト逆攻撃ツールキットを提案する。
OpenAttackには、すべての攻撃タイプ、多言語性、並列処理をサポートする独自の長所がある。
論文 参考訳(メタデータ) (2020-09-19T09:02:56Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。