論文の概要: Entity Disambiguation via Fusion Entity Decoding
- arxiv url: http://arxiv.org/abs/2404.01626v1
- Date: Tue, 2 Apr 2024 04:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:58:09.525846
- Title: Entity Disambiguation via Fusion Entity Decoding
- Title(参考訳): Fusion Entity Decodingによるエンティティの曖昧化
- Authors: Junxiong Wang, Ali Mousavi, Omar Attia, Saloni Potdar, Alexander M. Rush, Umar Farooq Minhas, Yunyao Li,
- Abstract要約: より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
- 参考スコア(独自算出の注目度): 69.03877425788383
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Entity disambiguation (ED), which links the mentions of ambiguous entities to their referent entities in a knowledge base, serves as a core component in entity linking (EL). Existing generative approaches demonstrate improved accuracy compared to classification approaches under the standardized ZELDA benchmark. Nevertheless, generative approaches suffer from the need for large-scale pre-training and inefficient generation. Most importantly, entity descriptions, which could contain crucial information to distinguish similar entities from each other, are often overlooked. We propose an encoder-decoder model to disambiguate entities with more detailed entity descriptions. Given text and candidate entities, the encoder learns interactions between the text and each candidate entity, producing representations for each entity candidate. The decoder then fuses the representations of entity candidates together and selects the correct entity. Our experiments, conducted on various entity disambiguation benchmarks, demonstrate the strong and robust performance of this model, particularly +1.5% in the ZELDA benchmark compared with GENRE. Furthermore, we integrate this approach into the retrieval/reader framework and observe +1.5% improvements in end-to-end entity linking in the GERBIL benchmark compared with EntQA.
- Abstract(参考訳): 知識ベースにおけるあいまいなエンティティの参照エンティティへの言及をリンクするエンティティ曖昧化(ED)は、エンティティリンク(EL)のコアコンポーネントとして機能する。
既存の生成手法は、標準ZELDAベンチマークによる分類手法と比較して精度が向上している。
それでも、生成的アプローチは大規模な事前学習と非効率な生成の必要性に悩まされている。
最も重要なことは、類似したエンティティを区別するための重要な情報を含むエンティティ記述は、しばしば見過ごされてしまうことである。
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
テキストと候補エンティティが与えられた後、エンコーダはテキストと各候補エンティティ間の相互作用を学習し、各エンティティ候補の表現を生成する。
デコーダはエンティティ候補の表現を融合させ、正しいエンティティを選択する。
種々のエンティティの曖昧さを指標とした実験では,このモデルの強靭性,強靭性,特にZELDAベンチマークの +1.5% を GENRE と比較した。
さらに,本手法を検索/読み出しフレームワークに統合し,EntQAと比較してGERBILベンチマークにおけるエンドツーエンドエンティティリンクの+1.5%改善を観察する。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z) - A Read-and-Select Framework for Zero-shot Entity Linking [33.15662306409253]
本稿では、エンティティの曖昧さの主成分をモデル化し、リード・アンド・セレクト(ReS)フレームワークを提案する。
提案手法は,確立されたゼロショットエンティティリンクデータセットであるZESHELに対して,2.55%のマイクロ平均精度向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T04:08:10Z) - Towards Better Entity Linking with Multi-View Enhanced Distillation [30.554387215553238]
本稿では,エンティティリンクのためのマルチビュー拡張蒸留(MVD)フレームワークを提案する。
MVDは、エンティティ内の複数の細粒度および参照関連部分の知識を、クロスエンコーダからデュアルエンコーダへ効果的に転送することができる。
実験により,提案手法はいくつかのエンティティリンクベンチマークにおいて最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-27T05:15:28Z) - Knowledge-Rich Self-Supervised Entity Linking [58.838404666183656]
Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
論文 参考訳(メタデータ) (2021-12-15T05:05:12Z) - MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity
Representations [28.28940043641958]
本稿では,エンティティ記述のためのマルチビュー表現を構築し,検索手法による参照に対する最適ビューを近似する,エンティティ検索のための新しいアプローチを提案する。
提案手法は,ZESHELにおける最先端性能を実現し,標準エンティティリンクデータセットの候補の品質を向上させる。
論文 参考訳(メタデータ) (2021-09-13T05:51:45Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - Entity Linking via Dual and Cross-Attention Encoders [16.23946458604865]
同一空間における参照やエンティティ表現を学習するデュアルエンコーダエンティティ検索システムを提案する。
次に、ターゲット参照と候補エンティティのそれぞれに対して、クロスアテンションエンコーダを使用してエンティティをリランクする。
TACKBP-2010データセットでは,92.05%の精度で最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-04-07T17:28:28Z) - Investigating Entity Knowledge in BERT with Simple Neural End-To-End
Entity Linking [8.265860641797996]
我々は、驚くほどうまく機能するエンティティリンク設定を極端に単純化することを提案する。
本研究では,このモデルにより,平易なBERT上でのエンティティ表現が向上することを示す。
また,テキスト理解型ベンチマークGLUEにおけるエンティティ認識トークン表現の有用性についても検討した。
論文 参考訳(メタデータ) (2020-03-11T18:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。