論文の概要: Win-Win Cooperation: Bundling Sequence and Span Models for Named Entity
Recognition
- arxiv url: http://arxiv.org/abs/2207.03300v1
- Date: Thu, 7 Jul 2022 13:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 21:12:53.188055
- Title: Win-Win Cooperation: Bundling Sequence and Span Models for Named Entity
Recognition
- Title(参考訳): Win-Win協調:名前付きエンティティ認識のためのシーケンスとスパンモデル
- Authors: Bin Ji, Shasha Li, Jie Yu, Jun Ma, Huijun Liu
- Abstract要約: 本稿では,上記の問題に対処するため,Bundling Learning(BL)と呼ばれるパラダイムを提案する。
BLはいつ動作するのか?BLは既存の最先端(SOTA)NERモデルを強化することができるのか?
BLは一貫して性能を向上し,現在のSOTAシステムにBLを組み込むことで,新たなSOTA NERシステムを構築することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 11.321157763737647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For Named Entity Recognition (NER), sequence labeling-based and span-based
paradigms are quite different. Previous research has demonstrated that the two
paradigms have clear complementary advantages, but few models have attempted to
leverage these advantages in a single NER model as far as we know. In our
previous work, we proposed a paradigm known as Bundling Learning (BL) to
address the above problem. The BL paradigm bundles the two NER paradigms,
enabling NER models to jointly tune their parameters by weighted summing each
paradigm's training loss. However, three critical issues remain unresolved:
When does BL work? Why does BL work? Can BL enhance the existing
state-of-the-art (SOTA) NER models? To address the first two issues, we
implement three NER models, involving a sequence labeling-based model--SeqNER,
a span-based NER model--SpanNER, and BL-NER that bundles SeqNER and SpanNER
together. We draw two conclusions regarding the two issues based on the
experimental results on eleven NER datasets from five domains. We then apply BL
to five existing SOTA NER models to investigate the third issue, consisting of
three sequence labeling-based models and two span-based models. Experimental
results indicate that BL consistently enhances their performance, suggesting
that it is possible to construct a new SOTA NER system by incorporating BL into
the current SOTA system. Moreover, we find that BL reduces both entity boundary
and type prediction errors. In addition, we compare two commonly used labeling
tagging methods as well as three types of span semantic representations.
- Abstract(参考訳): 名前付きエンティティ認識(NER)では、シーケンスラベリングとスパンベースのパラダイムは全く異なる。
これまでの研究では、2つのパラダイムは明らかに相補的な利点を持っているが、私たちが知る限り、これらの利点を単一のnerモデルで活用しようとするモデルはほとんどない。
本稿では,上記の問題に対処するため,Bundling Learning(BL)と呼ばれるパラダイムを提案する。
BLパラダイムは2つのNERパラダイムをバンドルし、NERモデルは各パラダイムのトレーニング損失を加重してパラメータを調整できる。
しかし、重要な3つの問題は未解決のままである。
なぜBLは機能するのか?
BLは既存の最先端(SOTA)NERモデルを拡張することができるか?
最初の2つの問題に対処するため、シーケンシャルラベルに基づくモデル-SeqNER、スパンベースNERモデル-SpanNER、およびSeqNERとSpanNERをバンドルするBL-NERを含む3つのNERモデルを実装した。
5つの領域の11個のNERデータセットの実験結果に基づいて,2つの課題について2つの結論を導いた。
次に既存の5つのSOTA NERモデルにBLを適用し,3つのシーケンスラベリングモデルと2つのスパンベースモデルからなる第3の課題について検討する。
実験の結果,BLは一貫して性能を向上し,現在のSOTAシステムにBLを組み込んで新たなSOTA NERシステムを構築することが可能であることが示唆された。
さらに,BLはエンティティ境界と型予測誤差の両方を削減する。
さらに,2つのラベルタグ法と3種類のスパン意味表現法を比較した。
関連論文リスト
- Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Gaussian Prior Reinforcement Learning for Nested Named Entity
Recognition [52.46740830977898]
GPRLと呼ばれる新しいSeq2seqモデルを提案し、ネストしたNERタスクをエンティティ三重項列生成プロセスとして定式化する。
3つのネストされたNERデータセットの実験では、GPRLが以前のネストされたNERモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-12T05:55:34Z) - Multi-task Transformer with Relation-attention and Type-attention for
Named Entity Recognition [35.44123819012004]
名前付きエンティティ認識(NER)は自然言語処理において重要な研究課題である。
本稿では,エンティティ境界検出タスクを名前付きエンティティ認識タスクに組み込むマルチタスク変換器を提案する。
論文 参考訳(メタデータ) (2023-03-20T05:11:22Z) - Unified Named Entity Recognition as Word-Word Relation Classification [25.801945832005504]
我々は、統一NERを単語関係分類、すなわちW2NERとしてモデル化する新しい方法を提案する。
このアーキテクチャは、エンティティワード間の隣り合う関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W2NERスキームに基づいて,統一NERを単語ペアの2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
論文 参考訳(メタデータ) (2021-12-19T06:11:07Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - Template-Based Named Entity Recognition Using BART [20.330819636161074]
シーケンス・ツー・シーケンス・フレームワークにおいて,NERを言語モデルランキング問題として扱うテンプレートベースのNER法を提案する。
提案手法は,CoNLL03において92.55%のF1スコアを達成し,微調整したBERT10.88%,15.34%,11.73%のF1スコアをMIT Movie,MIT Restaurant,ATISで達成した。
論文 参考訳(メタデータ) (2021-06-03T11:29:43Z) - A Unified Generative Framework for Various NER Subtasks [39.78805705711495]
本研究では,NERサブタスクをエンティティスパンシーケンス生成タスクとして定式化する。
統合されたフレームワークに基づいて、トレーニング済みのSeq2Seqモデルを利用して、3種類のNERサブタスクをすべて解決できる。
提案するフレームワークは実装が容易で,8つの英語NERデータセット上で,最先端(SoTA)あるいはSoTAに近い性能を実現する。
論文 参考訳(メタデータ) (2021-06-02T15:19:23Z) - Bipartite Flat-Graph Network for Nested Named Entity Recognition [94.91507634620133]
ネスト型名前付きエンティティ認識(NER)のためのバイパートフラットグラフネットワーク(BiFlaG)
ネストされた名前付きエンティティ認識(NER)のためのバイパーティライトフラットグラフネットワーク(BiFlaG)を提案する。
論文 参考訳(メタデータ) (2020-05-01T15:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。