論文の概要: Unified Named Entity Recognition as Word-Word Relation Classification
- arxiv url: http://arxiv.org/abs/2112.10070v1
- Date: Sun, 19 Dec 2021 06:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:06:24.709388
- Title: Unified Named Entity Recognition as Word-Word Relation Classification
- Title(参考訳): 単語関係分類としての統一名前付きエンティティ認識
- Authors: Jingye Li, Hao Fei, Jiang Liu, Shengqiong Wu, Meishan Zhang, Chong
Teng, Donghong Ji, Fei Li
- Abstract要約: 我々は、統一NERを単語関係分類、すなわちW2NERとしてモデル化する新しい方法を提案する。
このアーキテクチャは、エンティティワード間の隣り合う関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W2NERスキームに基づいて,統一NERを単語ペアの2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
- 参考スコア(独自算出の注目度): 25.801945832005504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: So far, named entity recognition (NER) has been involved with three major
types, including flat, overlapped (aka. nested), and discontinuous NER, which
have mostly been studied individually. Recently, a growing interest has been
built for unified NER, tackling the above three jobs concurrently with one
single model. Current best-performing methods mainly include span-based and
sequence-to-sequence models, where unfortunately the former merely focus on
boundary identification and the latter may suffer from exposure bias. In this
work, we present a novel alternative by modeling the unified NER as word-word
relation classification, namely W^2NER. The architecture resolves the kernel
bottleneck of unified NER by effectively modeling the neighboring relations
between entity words with Next-Neighboring-Word (NNW) and Tail-Head-Word-*
(THW-*) relations. Based on the W^2NER scheme we develop a neural framework, in
which the unified NER is modeled as a 2D grid of word pairs. We then propose
multi-granularity 2D convolutions for better refining the grid representations.
Finally, a co-predictor is used to sufficiently reason the word-word relations.
We perform extensive experiments on 14 widely-used benchmark datasets for flat,
overlapped, and discontinuous NER (8 English and 6 Chinese datasets), where our
model beats all the current top-performing baselines, pushing the
state-of-the-art performances of unified NER.
- Abstract(参考訳): これまで、名前付きエンティティ認識(NER)は、主に個別に研究されてきたフラット、オーバーラップ(別名ネスト)、不連続NERの3つの主要なタイプに関与してきた。
近年、統一NERへの関心が高まっており、上記の3つのジョブを1つの単一モデルで同時に扱うようになっている。
現在のベストパフォーマンス手法には、主にスパンベースとシーケンシャル・ツー・シーケンスモデルが含まれており、残念ながら、前者は境界同定にのみ焦点を合わせ、後者は露出バイアスに悩まされる。
本研究では,統一NERを単語関係分類(W^2NER)としてモデル化し,新しい手法を提案する。
このアーキテクチャは、Next-Neighboring-Word (NNW) とTail-Head-Word-* (THW-*) の関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W^2NERスキームに基づいて,統一NERを単語対の2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
次に,格子表現を改良するための多粒性2次元畳み込みを提案する。
最後に、単語関係を十分に推論するために、共予測器を用いる。
我々は、フラットで重複し、不連続なNER(8つの英語と6つの中国語のデータセット)のための14の広く使われているベンチマークデータセットに対して広範な実験を行い、我々のモデルは現在のトップパフォーマンスベースラインをすべて破り、統一されたNERの最先端のパフォーマンスを押し上げます。
関連論文リスト
- In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - Gaussian Prior Reinforcement Learning for Nested Named Entity
Recognition [52.46740830977898]
GPRLと呼ばれる新しいSeq2seqモデルを提案し、ネストしたNERタスクをエンティティ三重項列生成プロセスとして定式化する。
3つのネストされたNERデータセットの実験では、GPRLが以前のネストされたNERモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-12T05:55:34Z) - Multi-task Transformer with Relation-attention and Type-attention for
Named Entity Recognition [35.44123819012004]
名前付きエンティティ認識(NER)は自然言語処理において重要な研究課題である。
本稿では,エンティティ境界検出タスクを名前付きエンティティ認識タスクに組み込むマルチタスク変換器を提案する。
論文 参考訳(メタデータ) (2023-03-20T05:11:22Z) - TOE: A Grid-Tagging Discontinuous NER Model Enhanced by Embedding
Tag/Word Relations and More Fine-Grained Tags [32.95446649391798]
本稿では不連続なエンティティ認識のための競合グリッドタグモデルを提案する。
我々は2種類のタグ指向強化機構を最先端(SOTA)グリッドタグモデルに組み込む。
本モデルでは, 約0.83%, 0.05%, 0.66%のSOTAをF1で推し進め, 有効性を示した。
論文 参考訳(メタデータ) (2022-11-01T18:17:49Z) - Optimizing Bi-Encoder for Named Entity Recognition via Contrastive
Learning [80.36076044023581]
名前付きエンティティ認識(NER)のための効率的なバイエンコーダフレームワークを提案する。
我々はNERを、エンティティ参照のベクトル表現とその型との類似性を最大化する計量学習問題とみなす。
NERのこのバイエンコーダの定式化における大きな課題は、エンティティの言及から非エンゲージスを分離することにある。
論文 参考訳(メタデータ) (2022-08-30T23:19:04Z) - An Embarrassingly Easy but Strong Baseline for Nested Named Entity
Recognition [55.080101447586635]
スコア行列の空間関係をモデル化するために,コナールニューラルネットワーク(CNN)を提案する。
提案手法は, 事前学習したエンコーダと同一の手法である。
論文 参考訳(メタデータ) (2022-08-09T04:33:46Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - A Sequence-to-Set Network for Nested Named Entity Recognition [38.05786148160635]
ネストNERのための新しいシーケンス・ツー・セットニューラルネットワークを提案する。
我々は、非自己回帰デコーダを使用して、1回のパスで最終的なエンティティセットを予測する。
実験により, ネストした3つのNERコーパスに対して, 提案モデルが最先端となることを示す。
論文 参考訳(メタデータ) (2021-05-19T03:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。