論文の概要: NER-MQMRC: Formulating Named Entity Recognition as Multi Question
Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2205.05904v1
- Date: Thu, 12 May 2022 06:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:29:34.743411
- Title: NER-MQMRC: Formulating Named Entity Recognition as Multi Question
Machine Reading Comprehension
- Title(参考訳): NER-MQMRC:Multi Question Machine Reading Comprehensionとして名前付きエンティティ認識を定式化する
- Authors: Anubhav Shrimal, Avi Jain, Kartik Mehta, Promod Yenigalla
- Abstract要約: 一つのテキストに対して複数の質問を同時に考えるマルチクエスト MRC タスクとして NER のポーズを提案する。
提案アーキテクチャは,NER-SQMRCフレームワークベースモデルと比較して,平均2.5倍,2.3倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 6.3066273316843775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NER has been traditionally formulated as a sequence labeling task. However,
there has been recent trend in posing NER as a machine reading comprehension
task (Wang et al., 2020; Mengge et al., 2020), where entity name (or other
information) is considered as a question, text as the context and entity value
in text as answer snippet. These works consider MRC based on a single question
(entity) at a time. We propose posing NER as a multi-question MRC task, where
multiple questions (one question per entity) are considered at the same time
for a single text. We propose a novel BERT-based multi-question MRC (NER-MQMRC)
architecture for this formulation. NER-MQMRC architecture considers all
entities as input to BERT for learning token embeddings with self-attention and
leverages BERT-based entity representation for further improving these token
embeddings for NER task. Evaluation on three NER datasets show that our
proposed architecture leads to average 2.5 times faster training and 2.3 times
faster inference as compared to NER-SQMRC framework based models by considering
all entities together in a single pass. Further, we show that our model
performance does not degrade compared to single-question based MRC (NER-SQMRC)
(Devlin et al., 2019) leading to F1 gain of +0.41%, +0.32% and +0.27% for
AE-Pub, Ecommerce5PT and Twitter datasets respectively. We propose this
architecture primarily to solve large scale e-commerce attribute (or entity)
extraction from unstructured text of a magnitude of 50k+ attributes to be
extracted on a scalable production environment with high performance and
optimised training and inference runtimes.
- Abstract(参考訳): NERは伝統的にシーケンスラベリングタスクとして定式化されてきた。
しかし、近年、NERを機械読解タスク(Wang et al., 2020; Mengge et al., 2020)として、エンティティ名(または他の情報)を質問として、テキストを回答スニペットとして、コンテキストとして、エンティティ値として、テキストとして、そしてエンティティ値として扱う傾向がある。
これらの研究は、一度に1つの質問(関心)に基づいて MRC を考える。
一つのテキストに対して複数の質問(エンティティ毎に1つの質問)を同時に考えるマルチクエストMRCタスクとしてNERのポーズを提案する。
この定式化のための新しいBERTベースのマルチクエストMRC(NER-MQMRC)アーキテクチャを提案する。
NER-MQMRCアーキテクチャは、すべてのエンティティを自己注意でトークン埋め込みを学習するためのBERTへの入力とみなし、BERTベースのエンティティ表現を活用して、これらのトークン埋め込みをさらに改善する。
NER-SQMRCフレームワークベースモデルと比較すると,提案したアーキテクチャはトレーニングの2.5倍,推論の2.3倍の高速化を実現している。
さらに,本モデルの性能は,単一質問ベースのmrc (ner-sqmrc) (devlin et al., 2019) と比較して低下せず,ae-pub, ecommerce5pt, twitterのデータセットでは,それぞれ0.41%, +0.32%, +0.27%の上昇を示した。
本アーキテクチャは,大規模電子商取引属性(エンティティ)を50k以上の大容量の非構造化テキストから抽出し,高い性能と最適化されたトレーニングおよび推論ランタイムを備えたスケーラブルな実運用環境において抽出する。
関連論文リスト
- Advancing Grounded Multimodal Named Entity Recognition via LLM-Based Reformulation and Box-Based Segmentation [46.9782192992495]
Grounded Multimodal Named Entity Recognition (GMNER) タスクは、名前付きエンティティ、エンティティタイプ、および対応する視覚領域を識別することを目的としている。
我々は,大規模な言語モデルを活用することで,GMNERをMNER-VE-VGタスクに再構成する統一フレームワークであるRiVEGを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:52:29Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - NER-to-MRC: Named-Entity Recognition Completely Solving as Machine
Reading Comprehension [29.227500985892195]
NER は NER-to-MRC と呼ばれる機械読解問題である。
我々は NER タスクを MRC で解くのに適した形式に効率よく変換する。
我々は、WNUT-16データセットを最大11.24%改善し、外部データなしで最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2023-05-06T08:05:22Z) - MNER-QG: An End-to-End MRC framework for Multimodal Named Entity
Recognition with Query Grounding [21.49274082010887]
MNER(Multimodal Name entity recognition)は、情報抽出における重要なステップである。
本稿では,MNER-QG という新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-27T06:10:03Z) - MultiCoNER: A Large-scale Multilingual dataset for Complex Named Entity
Recognition [15.805414696789796]
我々は、11言語にわたる3つのドメイン(ウィキ文、質問、検索クエリ)をカバーする、名前付きエンティティ認識のための大規模な多言語データセットであるMultiCoNERを提案する。
このデータセットは、低コンテキストシナリオを含む、NERの現代的課題を表現するように設計されている。
論文 参考訳(メタデータ) (2022-08-30T20:45:54Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - Structured Multimodal Attentions for TextVQA [57.71060302874151]
上述の2つの問題を主に解決するために,終端から終端までの構造化マルチモーダルアテンション(SMA)ニューラルネットワークを提案する。
SMAはまず、画像に現れるオブジェクト・オブジェクト・オブジェクト・テキスト・テキストの関係を符号化するために構造グラフ表現を使用し、その後、それを推論するためにマルチモーダルグラフアテンションネットワークを設計する。
提案モデルでは,テキストVQAデータセットとST-VQAデータセットの2つのタスクを事前学習ベースTAP以外のモデルで比較した。
論文 参考訳(メタデータ) (2020-06-01T07:07:36Z) - One Model to Recognize Them All: Marginal Distillation from NER Models
with Different Tag Sets [30.445201832698192]
名前付きエンティティ認識(NER)は、現代の言語理解パイプラインの基本コンポーネントである。
本稿では,不均一なタグセットを持つ資源から統一NERモデルを訓練するための限界蒸留(MARDI)手法を提案する。
論文 参考訳(メタデータ) (2020-04-10T17:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。