論文の概要: Context-aware Adversarial Training for Name Regularity Bias in Named
Entity Recognition
- arxiv url: http://arxiv.org/abs/2107.11610v1
- Date: Sat, 24 Jul 2021 13:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 06:56:17.481424
- Title: Context-aware Adversarial Training for Name Regularity Bias in Named
Entity Recognition
- Title(参考訳): 名前付きエンティティ認識における正規性バイアスの文脈対応型適応学習
- Authors: Abbas Ghaddar, Philippe Langlais, Ahmad Rashid, Mehdi Rezagholizadeh
- Abstract要約: NERモデルの正規性バイアスを診断するための新しいテストベッドであるNRBを紹介する。
我々の結果は、我々がテストしたすべての最先端モデルにそのようなバイアスがあることを示唆している。
本稿では,学習可能な敵対的ノイズを一部のエンティティに付加する,新しいモデルに依存しない訓練手法を提案する。
- 参考スコア(独自算出の注目度): 8.344476599818826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we examine the ability of NER models to use contextual
information when predicting the type of an ambiguous entity. We introduce NRB,
a new testbed carefully designed to diagnose Name Regularity Bias of NER
models. Our results indicate that all state-of-the-art models we tested show
such a bias; BERT fine-tuned models significantly outperforming feature-based
(LSTM-CRF) ones on NRB, despite having comparable (sometimes lower) performance
on standard benchmarks.
To mitigate this bias, we propose a novel model-agnostic training method that
adds learnable adversarial noise to some entity mentions, thus enforcing models
to focus more strongly on the contextual signal, leading to significant gains
on NRB. Combining it with two other training strategies, data augmentation and
parameter freezing, leads to further gains.
- Abstract(参考訳): 本研究では,不明瞭な実体の型を予測する際に,NERモデルが文脈情報を利用する能力について検討する。
NERモデルの命名規則バイアスを慎重に診断するための新しいテストベッドであるNRBを紹介する。
BERTの微調整モデルでは,標準ベンチマークでは同等(時には低い)性能であったにもかかわらず,NRBでは機能ベース(LSTM-CRF)モデルよりも有意に優れていた。
このバイアスを軽減するために,いくつかのエンティティ参照に対して学習可能な敵対的ノイズを付加するモデル非依存なトレーニング手法を提案する。
データ拡張とパラメータ凍結という、他の2つのトレーニング戦略と組み合わせることで、さらなる向上につながります。
関連論文リスト
- Crowdsourcing with Difficulty: A Bayesian Rating Model for Heterogeneous Items [0.716879432974126]
応用統計学と機械学習では、訓練に使用される「金の標準」はしばしば偏りがあり、ほとんど常にうるさい。
DawidとSkeneの人気の高いクラウドソーシングモデルは、レーダ(コーダ、アノテータ)の感度と特異性を調整するが、トレーニングのために収集されたレーティングデータの分布特性を捉えない。
本稿では,難易度,差別性,推測可能性に項目レベルの効果を加えることで,コンセンサスカテゴリを推測できる汎用計測エラーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-29T20:59:28Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。