論文の概要: Token-Modification Adversarial Attacks for Natural Language Processing:
A Survey
- arxiv url: http://arxiv.org/abs/2103.00676v3
- Date: Sun, 7 Jan 2024 08:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 00:56:48.315867
- Title: Token-Modification Adversarial Attacks for Natural Language Processing:
A Survey
- Title(参考訳): 自然言語処理におけるToken-Modification Adversarial Attacks: A Survey
- Authors: Tom Roth, Yansong Gao, Alsharif Abuadbba, Surya Nepal, Wei Liu
- Abstract要約: 本稿では,自然言語処理システムに対する敵対的攻撃に対して,文献全体で使用するさまざまなコンポーネントについて述べる。
本研究は,新入生の現場への包括的ガイドとしての役割を担い,個別の攻撃成分の精製を目標とする研究を刺激することを目的としている。
- 参考スコア(独自算出の注目度): 29.681828979043978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many adversarial attacks target natural language processing systems, most of
which succeed through modifying the individual tokens of a document. Despite
the apparent uniqueness of each of these attacks, fundamentally they are simply
a distinct configuration of four components: a goal function, allowable
transformations, a search method, and constraints. In this survey, we
systematically present the different components used throughout the literature,
using an attack-independent framework which allows for easy comparison and
categorisation of components. Our work aims to serve as a comprehensive guide
for newcomers to the field and to spark targeted research into refining the
individual attack components.
- Abstract(参考訳): 多くの敵攻撃は自然言語処理システムをターゲットにしており、そのほとんどは文書の個々のトークンを変更することで成功している。
これらの攻撃には明らかな特異性があるが、基本的には、ゴール関数、許容可能な変換、検索方法、制約の4つのコンポーネントの異なる構成である。
本調査では,攻撃に依存しないフレームワークを用いて,各文献のさまざまなコンポーネントを体系的に提示し,コンポーネントの比較と分類を容易にする。
本研究は,新入生の現場への包括的ガイドとしての役割を担い,個別の攻撃成分の精製を目標とする研究を刺激することを目的としている。
関連論文リスト
- Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - FindIt: Generalized Localization with Natural Language Queries [43.07139534653485]
FindItは、さまざまな視覚的グラウンドとローカライゼーションタスクを統合する、シンプルで汎用的なフレームワークである。
我々のアーキテクチャの鍵は、異なるローカライゼーション要求を統一する効率的なマルチスケール融合モジュールである。
エンドツーエンドのトレーニング可能なフレームワークは、幅広い参照表現、ローカライゼーション、検出クエリに柔軟かつ正確に対応します。
論文 参考訳(メタデータ) (2022-03-31T17:59:30Z) - Identifying Adversarial Attacks on Text Classifiers [32.958568467774704]
本稿では,その生成にどの方法が使われたかを決定するために,逆テキストを解析する。
最初のコントリビューションは、攻撃検出とラベル付けのための広範なデータセットです。
第2のコントリビューションとして、このデータセットを使用して、攻撃識別のための多くの分類器を開発し、ベンチマークします。
論文 参考訳(メタデータ) (2022-01-21T06:16:04Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Compression, Transduction, and Creation: A Unified Framework for
Evaluating Natural Language Generation [85.32991360774447]
自然言語生成(NLG)は幅広いタスクにまたがっており、それぞれが特定の目的のために機能する。
NLGタスクにおける情報変化の性質に基づく統一的な視点を提案する。
我々は,異なるNLGタスクの重要な側面を評価するのに適した,解釈可能なメトリクスのファミリーを開発する。
論文 参考訳(メタデータ) (2021-09-14T01:00:42Z) - Robustness Tests of NLP Machine Learning Models: Search and Semantically
Replace [2.0611838991750018]
本稿では、自然言語処理(NLP)を含む機械学習モデルの堅牢性を評価する戦略を提案する。
全体的アプローチは、(1)テキストの重要な部分を識別する検索と、(2)重要な部分の置換を見つけ、置き換えられたトークンを意味的に類似した単語で制限するセマンティック置換という2つのステップからなる検索とセマンティック置換戦略に依存します。
論文 参考訳(メタデータ) (2021-04-20T14:05:36Z) - SAFCAR: Structured Attention Fusion for Compositional Action Recognition [47.43959215267547]
我々は,物体検出からの情報を組み合わせた新しい自己注意機構(Structured Attention Fusion, SAF)を開発し, 検証する。
提案手法は, 従来の技術システムよりも, 新規な動詞合成を効果的に認識するものである。
我々は,Something-V2データセットの課題であるSomesing-Elseタスクに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-03T17:45:01Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。