論文の概要: Breaking BERT: Understanding its Vulnerabilities for Named Entity
Recognition through Adversarial Attack
- arxiv url: http://arxiv.org/abs/2109.11308v1
- Date: Thu, 23 Sep 2021 11:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 19:53:09.253180
- Title: Breaking BERT: Understanding its Vulnerabilities for Named Entity
Recognition through Adversarial Attack
- Title(参考訳): BERTを破る - 敵攻撃による名前付きエンティティ認識の脆弱性を理解する
- Authors: Anne Dirkson, Suzan Verberne, Wessel Kraaij
- Abstract要約: 汎用とドメイン固有のBERTモデルは、自然言語処理(NLP)タスクに広く使われている。
本稿では,識別エンティティ認識(NER)の入力データの変化に対するBERTモデルの脆弱性を,敵攻撃による脆弱性として検討する。
- 参考スコア(独自算出の注目度): 10.871587311621974
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Both generic and domain-specific BERT models are widely used for natural
language processing (NLP) tasks. In this paper we investigate the vulnerability
of BERT models to variation in input data for Named Entity Recognition (NER)
through adversarial attack. Experimental results show that the original as well
as the domain-specific BERT models are highly vulnerable to entity replacement:
They can be fooled in 89.2 to 99.4% of the cases to mislabel previously correct
entities. BERT models are also vulnerable to variation in the entity context
with 20.2 to 45.0% of entities predicted completely wrong and another 29.3 to
53.3% of entities predicted wrong partially. Often a single change is
sufficient to fool the model. BERT models seem most vulnerable to changes in
the local context of entities. Of the two domain-specific BERT models, the
vulnerability of BioBERT is comparable to the original BERT model whereas
SciBERT is even more vulnerable. Our results chart the vulnerabilities of BERT
models for NER and emphasize the importance of further research into uncovering
and reducing these weaknesses.
- Abstract(参考訳): 汎用とドメイン固有のBERTモデルは、自然言語処理(NLP)タスクに広く使われている。
本稿では,識別エンティティ認識(NER)の入力データの変化に対するBERTモデルの脆弱性について,敵攻撃による検証を行った。
実験の結果、原本とドメイン固有のBERTモデルは、エンティティ置換に対して非常に脆弱であることが示されている。
20.2から45.0%のエンティティが完全に間違っていると予測され、29.3から53.3%のエンティティが部分的に間違っていると予測されている。
多くの場合、1つの変更はモデルを騙すのに十分です。
BERTモデルは、エンティティのローカルコンテキストの変化に対して最も脆弱であるように見える。
2つのドメイン固有のBERTモデルのうち、BioBERTの脆弱性はオリジナルのBERTモデルに匹敵するが、SciBERTはさらに脆弱である。
NER の BERT モデルの脆弱性をグラフ化し,これらの脆弱性の解明と低減に向けたさらなる研究の重要性を強調した。
関連論文リスト
- Memorization of Named Entities in Fine-tuned BERT Models [3.0177210416625115]
細調整BERTモデルにおける名前付きエンティティ記憶の程度について検討する。
細調整されたBERTは、事前訓練されたBERTモデルよりも、細調整されたデータセットに特有の名前付きエンティティを生成できないことを示す。
論文 参考訳(メタデータ) (2022-12-07T16:20:50Z) - Entity-aware Transformers for Entity Search [6.107210856380526]
本稿では,エンティティ強化BERTモデルにより,通常のBERTモデル上でのエンティティ指向クエリの有効性が向上することを示す。
また、エンティティ富化モデルによって提供されるエンティティ情報は、特にあまり普及していないエンティティに関連するクエリに役立ちます。
論文 参考訳(メタデータ) (2022-05-02T11:53:59Z) - BiBERT: Accurate Fully Binarized BERT [69.35727280997617]
BiBERTは、パフォーマンスボトルネックを取り除くために、正確に2項化されたBERTである。
提案手法は,FLOPとモデルサイズで56.3回,31.2回節約できる。
論文 参考訳(メタデータ) (2022-03-12T09:46:13Z) - BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised
Named Entity Recognition [57.2201011783393]
条件付き隠れマルコフモデル(CHMM)
CHMMは、入力トークンのBERT埋め込みからトークン単位の遷移と放出確率を予測する。
BERTベースのNERモデルを微調整し、ラベルをCHMMで推論する。
論文 参考訳(メタデータ) (2021-05-26T21:18:48Z) - Killing Two Birds with One Stone: Stealing Model and Inferring Attribute
from BERT-based APIs [26.38350928431939]
本稿では,BERTベースのAPIを事実上盗むことができる効果的なモデル抽出攻撃を提案する。
BERTベースのAPIで使用されるトレーニングデータのセンシティブな属性を明らかにするための効果的な推論攻撃を開発する。
論文 参考訳(メタデータ) (2021-05-23T10:38:23Z) - Model Extraction and Adversarial Transferability, Your BERT is
Vulnerable! [11.425692676973332]
敵がBERTベースのAPIサービスを、事前知識とクエリに制限のある複数のベンチマークデータセットで盗む方法を示す。
また, 抽出したモデルが, 被害者モデルに対する高度に転送可能な敵攻撃につながることを示す。
私たちの研究は、被害者モデルと攻撃モデルの間にアーキテクチャ上のミスマッチがある場合でも、BERTベースのAPIサービスの潜在的な脆弱性がまだ保持されていることを示しています。
論文 参考訳(メタデータ) (2021-03-18T04:23:21Z) - BinaryBERT: Pushing the Limit of BERT Quantization [74.65543496761553]
本稿では、BERT量子化を重み二項化の限界まで押し上げるBinaryBERTを提案する。
複雑で不規則な損失環境のため,バイナリBERTは3次学習よりも直接訓練が難しいことが判明した。
実験結果から、BinaryBERT は完全精度 BERT ベースと比較して無視できる性能低下を示した。
論文 参考訳(メタデータ) (2020-12-31T16:34:54Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z) - ConvBERT: Improving BERT with Span-based Dynamic Convolution [144.25748617961082]
BERTはグローバルな自己保持ブロックに大きく依存しているため、大きなメモリフットプリントと計算コストに悩まされる。
そこで本研究では,これらの自己注意型ヘッドを置き換え,局所的依存関係を直接モデル化する,スパンベースの動的畳み込みを提案する。
新たな畳み込み頭は、他の自己注意頭と共に、グローバルな文脈学習とローカルな文脈学習の両方においてより効率的である、新しい混合注意ブロックを形成する。
論文 参考訳(メタデータ) (2020-08-06T07:43:19Z) - What's in a Name? Are BERT Named Entity Representations just as Good for
any other Name? [18.11382921200802]
BERTをベースとしたNLPモデルの名前付きエンティティ表現は,入力中の同じ型付きクラスからの置換に対するロバスト性を調べることで評価する。
タイプアノテーションの不確かさとラベル予測を共同でモデル化しながら,複数の代替品からの予測をアンサンブルする簡単な方法を提案する。
3つのNLPタスクの実験結果から,本手法は自然・敵対的データセットの堅牢性を向上し,精度を向上することが示された。
論文 参考訳(メタデータ) (2020-07-14T08:14:00Z) - Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation [84.64004917951547]
BERTのような微調整済みの言語モデルは、NLPにおいて効果的な方法となっている。
本稿では, BERTの微細調整を, 自己組織化と自己蒸留の2つの効果的なメカニズムで改善する。
論文 参考訳(メタデータ) (2020-02-24T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。