論文の概要: Injecting Knowledge Base Information into End-to-End Joint Entity and
Relation Extraction and Coreference Resolution
- arxiv url: http://arxiv.org/abs/2107.02286v1
- Date: Mon, 5 Jul 2021 21:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:50:56.978868
- Title: Injecting Knowledge Base Information into End-to-End Joint Entity and
Relation Extraction and Coreference Resolution
- Title(参考訳): エンド・ツー・エンド合同エンティティへの知識ベース情報注入と関係抽出と参照解決
- Authors: Severine Verlinden, Klim Zaporojets, Johannes Deleu, Thomas Demeester,
Chris Develder
- Abstract要約: 我々は、教師なしエンティティリンクに基づいて、そのようなIEモデルの知識ベース(KB)から情報を注入する方法を研究する。
使用済みKBエンティティ表現は、(i)ハイパーリンクテキスト文書(Wikipedia)または(ii)知識グラフ(Wikidata)から学習される。
- 参考スコア(独自算出の注目度): 13.973471173349072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a joint information extraction (IE) model, solving named entity
recognition, coreference resolution and relation extraction jointly over the
whole document. In particular, we study how to inject information from a
knowledge base (KB) in such IE model, based on unsupervised entity linking. The
used KB entity representations are learned from either (i) hyperlinked text
documents (Wikipedia), or (ii) a knowledge graph (Wikidata), and appear
complementary in raising IE performance. Representations of corresponding
entity linking (EL) candidates are added to text span representations of the
input document, and we experiment with (i) taking a weighted average of the EL
candidate representations based on their prior (in Wikipedia), and (ii) using
an attention scheme over the EL candidate list. Results demonstrate an increase
of up to 5% F1-score for the evaluated IE tasks on two datasets. Despite a
strong performance of the prior-based model, our quantitative and qualitative
analysis reveals the advantage of using the attention-based approach.
- Abstract(参考訳): 本稿では,文書全体の名前付きエンティティ認識,コリファレンス解決,関係抽出を共同で解く統合情報抽出(ie)モデルを提案する。
特に,このようなieモデルにおける知識ベース(kb)からの情報注入について,教師なしのエンティティリンクに基づいて検討する。
i) hyperlinked text document (wikipedia) または (ii) knowledge graph (wikidata) のいずれかから、使用中のkbエンティティ表現が学習され、ieのパフォーマンス向上に相補的に現れる。
入力文書のテキストスパン表現に対応するエンティティリンク(EL)候補の表現を追加し、(i)先行(Wikipedia)に基づくEL候補表現の重み付き平均値と(ii)EL候補リスト上の注意スキームを用いて実験する。
結果は、2つのデータセットで評価されたIEタスクに対して、最大5%のF1スコアの増加を示す。
先行モデルの性能は高いが, 定量的および定性的分析により, 注意に基づくアプローチの利点が明らかとなった。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - DREQ: Document Re-Ranking Using Entity-based Query Understanding [6.675805308519988]
DREQはエンティティ指向の高密度ドキュメント再ランクモデルである。
ドキュメント表現内のクエリ関連エンティティを強調しながら、関連性の低いエンティティを同時に減らします。
DREQは、最先端のニューラル・非ニューラル・リグレード法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-11T14:27:12Z) - AKEM: Aligning Knowledge Base to Queries with Ensemble Model for Entity
Recognition and Linking [15.548722102706867]
本稿では,NLPCC 2015におけるエンティティ認識とリンク問題に対する新しいアプローチを提案する。
このタスクでは、短い検索クエリから名前付きエンティティの参照を抽出し、中国の知識ベース内のエンティティにリンクする。
本手法は計算効率が高く,F1スコアは0.535である。
論文 参考訳(メタデータ) (2023-09-12T12:37:37Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Towards Consistent Document-level Entity Linking: Joint Models for
Entity Linking and Coreference Resolution [15.265013409559227]
文書レベルのエンティティリンク(EL)の課題について考察する。
我々は、コア参照解決(coref)とともにELタスクに参加することを提案する。
論文 参考訳(メタデータ) (2021-08-30T21:46:12Z) - Multimodal Entity Linking for Tweets [6.439761523935613]
マルチモーダル・エンティティ・リンク(MEL)は、知識ベース(KB)のエンティティへの曖昧な言及をマッピングするためにテキストと視覚情報を使用する新興の研究分野である。
我々は,MEL のための完全注釈付き Twitter データセットを構築する方法を提案し,エンティティは Twitter KB で定義されている。
次に,テキストと視覚の文脈から言及と実体の両方の表現を共同学習するモデルを提案する。
論文 参考訳(メタデータ) (2021-04-07T16:40:23Z) - DWIE: an entity-centric dataset for multi-task document-level
information extraction [23.412500230644433]
DWIEは、4つの主要な情報抽出(IE)アノテーションサブタスクを組み合わせた、新しく作成されたマルチタスクデータセットである。
DWIEは、完全なドキュメントのレベルで概念的エンティティの相互作用と特性を記述するエンティティ中心のデータセットとして考えられている。
論文 参考訳(メタデータ) (2020-09-26T15:53:22Z) - SciREX: A Challenge Dataset for Document-Level Information Extraction [56.83748634747753]
ドキュメントレベルで大規模な情報抽出データセットを作成するのは難しい。
複数のIEタスクを含む文書レベルのIEデータセットであるSciREXを紹介する。
我々は、従来の最先端のIEモデルをドキュメントレベルのIEに拡張する強力なベースラインとして、ニューラルモデルを開発する。
論文 参考訳(メタデータ) (2020-05-01T17:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。