論文の概要: Global Attention for Name Tagging
- arxiv url: http://arxiv.org/abs/2010.09270v1
- Date: Mon, 19 Oct 2020 07:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:30:09.401584
- Title: Global Attention for Name Tagging
- Title(参考訳): 名前タグの国際的意識
- Authors: Boliang Zhang, Spencer Whitehead, Lifu Huang and Heng Ji
- Abstract要約: ローカル、文書レベル、コーパスレベルのコンテキスト情報を活用することで、名前タグを改善するための新しいフレームワークを提案する。
本研究では,グローバルな注意を介し,文書レベルのコンテキスト情報とコーパスレベルのコンテキスト情報と,局所的なコンテキスト情報とを組み込むことを学習するモデルを提案する。
ベンチマークデータセットの実験は、我々のアプローチの有効性を示している。
- 参考スコア(独自算出の注目度): 56.62059996864408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many name tagging approaches use local contextual information with much
success, but fail when the local context is ambiguous or limited. We present a
new framework to improve name tagging by utilizing local, document-level, and
corpus-level contextual information. We retrieve document-level context from
other sentences within the same document and corpus-level context from
sentences in other topically related documents. We propose a model that learns
to incorporate document-level and corpus-level contextual information alongside
local contextual information via global attentions, which dynamically weight
their respective contextual information, and gating mechanisms, which determine
the influence of this information. Extensive experiments on benchmark datasets
show the effectiveness of our approach, which achieves state-of-the-art results
for Dutch, German, and Spanish on the CoNLL-2002 and CoNLL-2003 datasets.
- Abstract(参考訳): 多くの名前タグアプローチは、多くの成功を伴うローカルコンテキスト情報を使用するが、ローカルコンテキストが曖昧であるか制限されている場合に失敗する。
ローカル、文書レベル、コーパスレベルのコンテキスト情報を活用することにより、名前タグを改善する新しいフレームワークを提案する。
同一文書内の他の文から文書レベルコンテキストを取得し、他の局所関連文書中の文からコーパスレベルコンテキストを取得する。
本研究では,各文脈情報を動的に重み付けするグローバルアテンションと,その影響を判断するゲーティング機構を用いて,文書レベルのコンテキスト情報とコーパスレベルのコンテキスト情報を,局所的なコンテキスト情報と組み合わせることを学ぶモデルを提案する。
CoNLL-2002 と CoNLL-2003 のデータセット上で,オランダ,ドイツ,スペインに対して最先端の結果を得る手法の有効性を示す。
関連論文リスト
- Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - The Role of Global and Local Context in Named Entity Recognition [3.1638713158723686]
本稿では,グローバルな文書コンテキストの影響と,その地域コンテキストとの関係について考察する。
グローバルな文書コンテキストを正しく取得することは、ローカルなコンテキストのみを活用することよりも、パフォーマンスに大きな影響を与える。
論文 参考訳(メタデータ) (2023-05-04T20:22:18Z) - Named entity recognition architecture combining contextual and global
features [5.92351086183376]
名前付きエンティティ認識(NER)は、名前付きエンティティの特定と分類を目的とした情報抽出技術である。
我々は,XLNet のコンテキスト特徴と Graph Convolution Network (GCN) のグローバル特徴を組み合わせた NER の性能向上を提案する。
論文 参考訳(メタデータ) (2021-12-15T10:54:36Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z) - Global-to-Local Neural Networks for Document-Level Relation Extraction [11.900280120655898]
関係抽出(RE)は、テキスト内の名前付きエンティティ間の意味的関係を特定することを目的としている。
近年、文書のレベルに引き上げられるのを目撃しており、エンティティとの複雑な推論とドキュメント全体への言及が必要である。
本稿では,文書情報を大域的・局所的表現と文脈関係表現の両面から符号化することで,文書レベルのREに新たなモデルを提案する。
論文 参考訳(メタデータ) (2020-09-22T07:30:19Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。