論文の概要: Attack Named Entity Recognition by Entity Boundary Interference
- arxiv url: http://arxiv.org/abs/2305.05253v1
- Date: Tue, 9 May 2023 08:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:26:19.425292
- Title: Attack Named Entity Recognition by Entity Boundary Interference
- Title(参考訳): エンティティ境界干渉による名前付きエンティティ認識
- Authors: Yifei Yang, Hongqiu Wu and Hai Zhao
- Abstract要約: 名前付きエンティティ認識(NER)は、その堅牢性はほとんど注目されていないが、基礎的なNLPタスクである。
本稿では, 文分類に基づくNER攻撃の原理を再考する。
我々は、キーインサイトに基づく新しいワンワード修正NER攻撃を提案し、NERモデルは、その決定を行うエンティティの境界位置に対して常に脆弱である。
- 参考スコア(独自算出の注目度): 83.24698526366682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named Entity Recognition (NER) is a cornerstone NLP task while its robustness
has been given little attention. This paper rethinks the principles of NER
attacks derived from sentence classification, as they can easily violate the
label consistency between the original and adversarial NER examples. This is
due to the fine-grained nature of NER, as even minor word changes in the
sentence can result in the emergence or mutation of any entities, resulting in
invalid adversarial examples. To this end, we propose a novel one-word
modification NER attack based on a key insight, NER models are always
vulnerable to the boundary position of an entity to make their decision. We
thus strategically insert a new boundary into the sentence and trigger the
Entity Boundary Interference that the victim model makes the wrong prediction
either on this boundary word or on other words in the sentence. We call this
attack Virtual Boundary Attack (ViBA), which is shown to be remarkably
effective when attacking both English and Chinese models with a 70%-90% attack
success rate on state-of-the-art language models (e.g. RoBERTa, DeBERTa) and
also significantly faster than previous methods.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は、その堅牢性はほとんど注目されていないが、基礎的なNLPタスクである。
本稿では, 文分類に基づくNER攻撃の原理を再考する。
これは NER のきめ細かい性質によるものであり、文のマイナーな単語の変更でさえ、あらゆる実体の出現や突然変異を引き起こし、無効な敵の例をもたらす可能性がある。
この目的のために、キーインサイトに基づく新しいワンワード修正NER攻撃を提案し、NERモデルは、常にその決定を行うエンティティの境界位置に対して脆弱である。
そこで我々は,文内に新たな境界を戦略的に挿入し,この境界語あるいは文中の他の単語に対して,被害者モデルが誤った予測を行うというエンティティ境界干渉を誘導する。
我々はこの攻撃を仮想境界攻撃 (ViBA) と呼び、現状の言語モデル(RoBERTa、DeBERTaなど)に対して70%-90%の攻撃成功率で英語と中国語の両方のモデルを攻撃する場合や、従来の手法よりもはるかに高速であることを示す。
関連論文リスト
- Robust Few-Shot Named Entity Recognition with Boundary Discrimination
and Correlation Purification [14.998158107063848]
NER (Few-shot named entity recognition) は、既存の知識を活用して、低リソース領域における新しい名前付きエンティティを認識することを目的としている。
境界識別・相関浄化法(BDCP)を用いた頑健な2段連写NER法を提案する。
スパン検出段階では、エンティティ境界判別モジュールを導入して、エンティティスパンを検出するための高度に区別された境界表現空間を提供する。
エンティティタイピング段階では、干渉情報を最小化してエンティティとコンテキストの相関を浄化する。
論文 参考訳(メタデータ) (2023-12-13T08:17:00Z) - Fooling the Textual Fooler via Randomizing Latent Representations [13.77424820701913]
敵語レベルの摂動はよく研究され効果的な攻撃戦略である。
本稿では、敵の例を生成する過程を複雑にすることを目的とする、軽量で攻撃に依存しない防御法を提案する。
本稿では,AdvFoolerの対人的単語レベル攻撃に対する最先端のロバスト性を実証的に示す。
論文 参考訳(メタデータ) (2023-10-02T06:57:25Z) - Targeted Adversarial Attacks against Neural Machine Translation [44.04452616807661]
我々はNMTモデルに対する新たな敵攻撃を提案する。
私たちの攻撃は、75%以上の文の翻訳にキーワードを挿入することに成功しました。
論文 参考訳(メタデータ) (2023-03-02T08:43:30Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Towards Robustness Against Natural Language Word Substitutions [87.56898475512703]
単語置換に対するロバスト性は、意味論的に類似した単語を置換として、明確に定義され広く受け入れられる形式である。
従来の防衛方法は、$l$-ball または hyper-rectangle を用いてベクトル空間における単語置換をキャプチャする。
論文 参考訳(メタデータ) (2021-07-28T17:55:08Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Reevaluating Adversarial Examples in Natural Language [20.14869834829091]
我々は2つの最先端の同義語代用攻撃の出力を分析した。
それらの摂動はしばしば意味論を保存せず、38%が文法的誤りを導入している。
セマンティクスと文法性を改善するために制約が調整されたことにより、攻撃の成功率は70パーセント以上低下する。
論文 参考訳(メタデータ) (2020-04-25T03:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。