論文の概要: FLERT: Document-Level Features for Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2011.06993v2
- Date: Fri, 14 May 2021 07:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:01:58.437578
- Title: FLERT: Document-Level Features for Named Entity Recognition
- Title(参考訳): FLERT: 名前付きエンティティ認識のためのドキュメントレベル機能
- Authors: Stefan Schweter, Alan Akbik
- Abstract要約: 名前付きエンティティ認識(NER)に対する現在の最先端のアプローチは、典型的には文レベルでテキストを考慮する。
NERにトランスフォーマーベースのモデルを使用することで、ドキュメントレベルの機能をキャプチャするための自然なオプションが提供される。
- 参考スコア(独自算出の注目度): 5.27294900215066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art approaches for named entity recognition (NER)
typically consider text at the sentence-level and thus do not model information
that crosses sentence boundaries. However, the use of transformer-based models
for NER offers natural options for capturing document-level features. In this
paper, we perform a comparative evaluation of document-level features in the
two standard NER architectures commonly considered in the literature, namely
"fine-tuning" and "feature-based LSTM-CRF". We evaluate different
hyperparameters for document-level features such as context window size and
enforcing document-locality. We present experiments from which we derive
recommendations for how to model document context and present new
state-of-the-art scores on several CoNLL-03 benchmark datasets. Our approach is
integrated into the Flair framework to facilitate reproduction of our
experiments.
- Abstract(参考訳): 名前付きエンティティ認識(NER)に対する現在の最先端のアプローチは、典型的には文レベルでテキストを考慮し、文境界を越える情報をモデル化しない。
しかし、NERにトランスフォーマーベースのモデルを使用することで、ドキュメントレベルの機能をキャプチャするための自然なオプションが提供される。
本稿では、文献でよく見られる2つの標準NERアーキテクチャ、すなわち「微細チューニング」と「機能ベースLSTM-CRF」における文書レベルの特徴の比較評価を行う。
コンテクストウィンドウサイズや文書局所性の強化など,文書レベルの特徴に対して異なるハイパーパラメータを評価する。
本稿では,文書コンテキストのモデル化方法を推奨する実験を行い,conll-03ベンチマークデータセット上で新たな最先端スコアを提示する。
このアプローチはflairフレームワークに統合され,実験の再現が容易になる。
関連論文リスト
- Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - DREQ: Document Re-Ranking Using Entity-based Query Understanding [6.675805308519988]
DREQはエンティティ指向の高密度ドキュメント再ランクモデルである。
ドキュメント表現内のクエリ関連エンティティを強調しながら、関連性の低いエンティティを同時に減らします。
DREQは、最先端のニューラル・非ニューラル・リグレード法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-11T14:27:12Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Few-Shot Document-Level Relation Extraction [0.0]
文書レベルの関係抽出ベンチマーク(FSDLRE)を提案する。
文書レベルのコーパスは、特にNOTA(non-of-a-a-a-a-be-a-a-Be-Be-Be-(NOTA)分布に関して、よりリアリズムをもたらすと論じる。
我々は、最先端の文レベル手法であるMNAVを文書レベルに適応させ、ドメイン適応を改善するためにさらに開発する。
論文 参考訳(メタデータ) (2022-05-04T13:16:19Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Aspect-based Document Similarity for Research Papers [4.661692753666685]
文書分類タスクのペア化によってアスペクト情報との類似性を拡張する。
研究論文のアスペクトベースの文書類似性を評価する。
以上の結果から,SciBERTは最高の演奏システムであることがわかった。
論文 参考訳(メタデータ) (2020-10-13T13:51:21Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - SPECTER: Document-level Representation Learning using Citation-informed
Transformers [51.048515757909215]
SPECTERは、Transformer言語モデルの事前学習に基づいて、科学文書の文書レベルの埋め込みを生成する。
SciDocsは、引用予測から文書分類、レコメンデーションまでの7つの文書レベルのタスクからなる新しい評価ベンチマークである。
論文 参考訳(メタデータ) (2020-04-15T16:05:51Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。