論文の概要: Entity Linking via Dual and Cross-Attention Encoders
- arxiv url: http://arxiv.org/abs/2004.03555v1
- Date: Tue, 7 Apr 2020 17:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:57:09.854480
- Title: Entity Linking via Dual and Cross-Attention Encoders
- Title(参考訳): デュアルおよびクロスアテンションエンコーダによるエンティティリンク
- Authors: Oshin Agarwal, Daniel M. Bikel
- Abstract要約: 同一空間における参照やエンティティ表現を学習するデュアルエンコーダエンティティ検索システムを提案する。
次に、ターゲット参照と候補エンティティのそれぞれに対して、クロスアテンションエンコーダを使用してエンティティをリランクする。
TACKBP-2010データセットでは,92.05%の精度で最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 16.23946458604865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity Linking has two main open areas of research: 1) generate candidate
entities without using alias tables and 2) generate more contextual
representations for both mentions and entities. Recently, a solution has been
proposed for the former as a dual-encoder entity retrieval system (Gillick et
al., 2019) that learns mention and entity representations in the same space,
and performs linking by selecting the nearest entity to the mention in this
space. In this work, we use this retrieval system solely for generating
candidate entities. We then rerank the entities by using a cross-attention
encoder over the target mention and each of the candidate entities. Whereas a
dual encoder approach forces all information to be contained in the small,
fixed set of vector dimensions used to represent mentions and entities, a
crossattention model allows for the use of detailed information (read:
features) from the entirety of each <mention, context, candidate entity> tuple.
We experiment with features used in the reranker including different ways of
incorporating document-level context. We achieve state-of-the-art results on
TACKBP-2010 dataset, with 92.05% accuracy. Furthermore, we show how the
rescoring model generalizes well when trained on the larger CoNLL-2003 dataset
and evaluated on TACKBP-2010.
- Abstract(参考訳): Entity Linkingには2つの研究領域がある。
1)エイリアステーブルを使わずに候補エンティティを生成する。
2) 参照とエンティティの両方に対して、よりコンテキスト表現を生成する。
最近、同じ空間で言及と実体表現を学び、この空間で言及に最も近いエンティティを選択することでリンクを行うデュアルエンコーダエンティティ検索システム(gillick et al., 2019)として、前者に対して解決策が提案されている。
本研究では,この検索システムを候補エンティティ生成にのみ用いる。
次に、ターゲット参照と候補エンティティのそれぞれに対して、クロスアテンションエンコーダを使用してエンティティをリランクする。
デュアルエンコーダアプローチでは,参照やエンティティを表すために使用されるベクトル次元の小さな固定セットにすべての情報を格納する必要があるが,クロスアテンションモデルでは,<mention, context, candidate entity> タプルの全体から詳細な情報(機能)の使用が可能になる。
文書レベルのコンテキストを組み込むさまざまな方法を含む、リランカで使用される機能を実験する。
TACKBP-2010データセットの精度は92.05%である。
さらに,大規模なCoNLL-2003データセットでトレーニングし,TACKBP-2010で評価すると,再構成モデルがどのように一般化するかを示す。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - A Read-and-Select Framework for Zero-shot Entity Linking [33.15662306409253]
本稿では、エンティティの曖昧さの主成分をモデル化し、リード・アンド・セレクト(ReS)フレームワークを提案する。
提案手法は,確立されたゼロショットエンティティリンクデータセットであるZESHELに対して,2.55%のマイクロ平均精度向上を実現している。
論文 参考訳(メタデータ) (2023-10-19T04:08:10Z) - Towards Better Entity Linking with Multi-View Enhanced Distillation [30.554387215553238]
本稿では,エンティティリンクのためのマルチビュー拡張蒸留(MVD)フレームワークを提案する。
MVDは、エンティティ内の複数の細粒度および参照関連部分の知識を、クロスエンコーダからデュアルエンコーダへ効果的に転送することができる。
実験により,提案手法はいくつかのエンティティリンクベンチマークにおいて最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-27T05:15:28Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity
Representations [28.28940043641958]
本稿では,エンティティ記述のためのマルチビュー表現を構築し,検索手法による参照に対する最適ビューを近似する,エンティティ検索のための新しいアプローチを提案する。
提案手法は,ZESHELにおける最先端性能を実現し,標準エンティティリンクデータセットの候補の品質を向上させる。
論文 参考訳(メタデータ) (2021-09-13T05:51:45Z) - RAGA: Relation-aware Graph Attention Networks for Global Entity
Alignment [14.287681294725438]
実体と関係の相互作用を捉えるために,Relation-aware Graph Attention Networksに基づく新しいフレームワークを提案する。
本フレームワークでは,エンティティ情報を関係に分散し,関係情報をエンティティに集約する自己認識機構を採用している。
論文 参考訳(メタデータ) (2021-03-01T06:30:51Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。