論文の概要: The Role of Global and Local Context in Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2305.03132v1
- Date: Thu, 4 May 2023 20:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:16:38.182756
- Title: The Role of Global and Local Context in Named Entity Recognition
- Title(参考訳): 名前付きエンティティ認識におけるグローバルコンテキストとローカルコンテキストの役割
- Authors: Arthur Amalvy, Vincent Labatut, Richard Dufour
- Abstract要約: 本稿では,グローバルな文書コンテキストの影響と,その地域コンテキストとの関係について考察する。
グローバルな文書コンテキストを正しく取得することは、ローカルなコンテキストのみを活用することよりも、パフォーマンスに大きな影響を与える。
- 参考スコア(独自算出の注目度): 3.1638713158723686
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-trained transformer-based models have recently shown great performance
when applied to Named Entity Recognition (NER). As the complexity of their
self-attention mechanism prevents them from processing long documents at once,
these models are usually applied in a sequential fashion. Such an approach
unfortunately only incorporates local context and prevents leveraging global
document context in long documents such as novels, which might hinder
performance. In this article, we explore the impact of global document context,
and its relationships with local context. We find that correctly retrieving
global document context has a greater impact on performance than only
leveraging local context, prompting for further research on how to better
retrieve that context.
- Abstract(参考訳): Named Entity Recognition (NER)に適用した場合、事前訓練されたトランスフォーマーベースのモデルの性能が向上した。
自己追跡機構の複雑さにより、長い文書を一度に処理できないため、これらのモデルは通常シーケンシャルに適用される。
このようなアプローチは、残念ながらローカルコンテキストのみを取り入れており、小説などの長文文書におけるグローバルドキュメントコンテキストの活用を妨げている。
本稿では,グローバルな文書コンテキストの影響と,そのローカルなコンテキストとの関係について考察する。
グローバルなドキュメントコンテキストを正しく取得することは、ローカルコンテキストのみを活用することよりもパフォーマンスに大きな影響を与え、そのコンテキストをよりよく取得する方法のさらなる研究を促す。
関連論文リスト
- Learning to Rank Context for Named Entity Recognition Using a Synthetic Dataset [6.633914491587503]
本稿では,Alpacaを用いた文脈検索学習データセットを提案する。
このデータセットを用いて、NERの関連するコンテキストを見つけることができるBERTモデルに基づいて、ニューラルネットワークコンテキストレトリバーをトレーニングする。
本手法は,40冊の本の第1章からなる英文データセットにおいて,NERタスクの検索ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-16T06:53:12Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - Dynamic Global Memory for Document-level Argument Extraction [63.314514124716936]
文書レベルのイベント引数抽出のための,新しいグローバルなニューラルジェネレーションベースのフレームワークを提案する。
文書メモリストアを使用してコンテキストイベント情報を記録し、それを暗黙的に明示的に活用することで、後のイベントの引数の復号に役立ちます。
実験結果から,我々のフレームワークは従来の手法よりも大幅に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-18T23:45:25Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Named entity recognition architecture combining contextual and global
features [5.92351086183376]
名前付きエンティティ認識(NER)は、名前付きエンティティの特定と分類を目的とした情報抽出技術である。
我々は,XLNet のコンテキスト特徴と Graph Convolution Network (GCN) のグローバル特徴を組み合わせた NER の性能向上を提案する。
論文 参考訳(メタデータ) (2021-12-15T10:54:36Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z) - Global Attention for Name Tagging [56.62059996864408]
ローカル、文書レベル、コーパスレベルのコンテキスト情報を活用することで、名前タグを改善するための新しいフレームワークを提案する。
本研究では,グローバルな注意を介し,文書レベルのコンテキスト情報とコーパスレベルのコンテキスト情報と,局所的なコンテキスト情報とを組み込むことを学習するモデルを提案する。
ベンチマークデータセットの実験は、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-10-19T07:27:15Z) - Global-to-Local Neural Networks for Document-Level Relation Extraction [11.900280120655898]
関係抽出(RE)は、テキスト内の名前付きエンティティ間の意味的関係を特定することを目的としている。
近年、文書のレベルに引き上げられるのを目撃しており、エンティティとの複雑な推論とドキュメント全体への言及が必要である。
本稿では,文書情報を大域的・局所的表現と文脈関係表現の両面から符号化することで,文書レベルのREに新たなモデルを提案する。
論文 参考訳(メタデータ) (2020-09-22T07:30:19Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。