論文の概要: Improving Entity Disambiguation by Reasoning over a Knowledge Base
- arxiv url: http://arxiv.org/abs/2207.04106v1
- Date: Fri, 8 Jul 2022 19:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:33:58.058241
- Title: Improving Entity Disambiguation by Reasoning over a Knowledge Base
- Title(参考訳): 知識ベース上での推論による実体曖昧化の改善
- Authors: Tom Ayoola, Joseph Fisher, Andrea Pierleoni
- Abstract要約: 本稿では,記号的知識ベースに基づく推論によってエンティティをリンクするEDモデルを提案する。
我々のモデルは、6つの確立されたEDデータセットの最先端のベースラインを平均1.3F1で上回ります。
- 参考スコア(独自算出の注目度): 2.223733768286313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in entity disambiguation (ED) has typically neglected structured
knowledge base (KB) facts, and instead relied on a limited subset of KB
information, such as entity descriptions or types. This limits the range of
contexts in which entities can be disambiguated. To allow the use of all KB
facts, as well as descriptions and types, we introduce an ED model which links
entities by reasoning over a symbolic knowledge base in a fully differentiable
fashion. Our model surpasses state-of-the-art baselines on six well-established
ED datasets by 1.3 F1 on average. By allowing access to all KB information, our
model is less reliant on popularity-based entity priors, and improves
performance on the challenging ShadowLink dataset (which emphasises infrequent
and ambiguous entities) by 12.7 F1.
- Abstract(参考訳): エンティティ曖昧化(ED)における最近の研究は、構造化知識ベース(KB)の事実を無視し、代わりにエンティティ記述や型といったKB情報の限られたサブセットに依存している。
これにより、エンティティを曖昧にできるコンテキストの範囲が制限される。
そこで本研究では,すべてのKB事実や記述や型の使用を可能にするために,記号的知識ベースに対する推論によってエンティティをリンクするEDモデルを提案する。
我々のモデルは、6つの確立されたEDデータセットの最先端ベースラインを平均1.3F1で上回る。
すべてのkb情報へのアクセスを可能にすることで、私たちのモデルは人気に基づくエンティティ優先に依存しなくなり、挑戦的なshadowlinkデータセット(弱いエンティティとあいまいなエンティティを強調する)のパフォーマンスを12.7 f1改善します。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Real World Conversational Entity Linking Requires More Than Zeroshots [50.5691094768954]
本研究では,資源制約下でのELモデルの有効性を評価するための評価シナリオを設計する。
本稿では、Fandomと新しいゼロショット対話型エンティティリンクデータセットを用いて、ELモデルの未知KBへの一般化能力を評価する。
その結果,既存のゼロショットELモデルでは,事前トレーニングなしで新しいドメイン固有KBを導入するとフェールすることがわかった。
論文 参考訳(メタデータ) (2024-09-02T10:37:53Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - MoCoSA: Momentum Contrast for Knowledge Graph Completion with
Structure-Augmented Pre-trained Language Models [11.57782182864771]
構造強化事前学習言語モデル(MoCoSA)を用いた知識グラフ補完のためのMomentum Contrastを提案する。
また,WN18RRでは2.5%,OpenBG500では21%向上した。
論文 参考訳(メタデータ) (2023-08-16T08:09:10Z) - FactKB: Generalizable Factuality Evaluation using Language Models
Enhanced with Factual Knowledge [37.2179237007464]
本稿では,ドメイン間で一般化可能なファクトリティー評価手法であるFactKBを提案する。
本稿では, 直接実体事実に基づく補完的事実事前学習の目的, 実体に関する補助的知識に基づく事実, 知識ベースウォークを通じて構成的に構築された事実の3つの種類を紹介する。
結果の事実性評価モデルは、2つのドメイン内ニュース要約ベンチマークと3つのドメイン外科学文献データセットに対して、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-05-14T23:58:05Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Named Entity Linking on Namesakes [10.609815608017065]
知識ベース(KB)エンティティを埋め込みで表現する。
知識ベース(KB)におけるエンティティの表現をKBデータのみを用いて調整できることを示し,NELの性能を向上させる。
論文 参考訳(メタデータ) (2022-05-21T03:31:25Z) - Knowledge-Rich Self-Supervised Entity Linking [58.838404666183656]
Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
論文 参考訳(メタデータ) (2021-12-15T05:05:12Z) - Metadata Shaping: Natural Language Annotations for the Tail [4.665656172490747]
言語モデル(LM)は目覚ましい進歩を遂げているが、訓練データから稀な言語パターンへの一般化に苦慮している。
本稿では,情報理論の指標に基づく例に,エンティティ記述やカテゴリタグなどの手軽に利用できるメタデータを付加する手法を提案する。
LMの変更はないが、メタデータの整形はBERTベースラインを5.3F1ポイントまで越え、最先端の結果と競合する。
論文 参考訳(メタデータ) (2021-10-16T01:00:47Z) - Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas [31.154104663488358]
エンティティリンクでは、原文中の名前付きエンティティの言及は知識ベース(KB)に対して曖昧にされる
この研究は、トレーニングデータがなく、トレーニング中にスキーマが不明な未確認KBへのリンクに焦点を当てている。
このアプローチは、いくつかの属性値対を持つ任意のKBからフラット文字列へのエンティティのフレキシブルな変換法に依存している。
論文 参考訳(メタデータ) (2020-10-21T22:07:31Z) - BoxE: A Box Embedding Model for Knowledge Base Completion [53.57588201197374]
知識ベース補完(KBC)は、知識ベース(KB)に存在する情報を活用することにより、行方不明な事実を自動的に推測することを目的とする。
既存の埋め込みモデルは、以下の制限の少なくとも1つに該当する。
BoxEは、エンティティをポイントとして、関係をハイパー矩形(またはボックス)の集合として埋め込む
論文 参考訳(メタデータ) (2020-07-13T09:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。