論文の概要: MOLEMAN: Mention-Only Linking of Entities with a Mention Annotation
Network
- arxiv url: http://arxiv.org/abs/2106.07352v1
- Date: Wed, 2 Jun 2021 15:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:08:01.356373
- Title: MOLEMAN: Mention-Only Linking of Entities with a Mention Annotation
Network
- Title(参考訳): moleman氏: 参照のみのエンティティと参照アノテーションネットワークのリンク
- Authors: Nicholas FitzGerald, Jan A. Botha, Daniel Gillick, Daniel M. Bikel,
Tom Kwiatkowski, Andrew McCallum
- Abstract要約: 本稿では、エンティティリンクに対して、インスタンスベースの近接アプローチを提案する。
我々は、同じ実体の類似した言及を、異なる実体の言及よりもベクトル空間に近づけることを学ぶ、文脈化された参照エンコーダを構築する。
本モデルは,ウィキペディアのハイパーリンクから派生した参照ペアの多言語コーパスに基づいて学習し,約7億の参照のインデックス上で最寄りの推測を行う。
- 参考スコア(独自算出の注目度): 31.65990156182273
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present an instance-based nearest neighbor approach to entity linking. In
contrast to most prior entity retrieval systems which represent each entity
with a single vector, we build a contextualized mention-encoder that learns to
place similar mentions of the same entity closer in vector space than mentions
of different entities. This approach allows all mentions of an entity to serve
as "class prototypes" as inference involves retrieving from the full set of
labeled entity mentions in the training set and applying the nearest mention
neighbor's entity label. Our model is trained on a large multilingual corpus of
mention pairs derived from Wikipedia hyperlinks, and performs nearest neighbor
inference on an index of 700 million mentions. It is simpler to train, gives
more interpretable predictions, and outperforms all other systems on two
multilingual entity linking benchmarks.
- Abstract(参考訳): 本稿では、エンティティリンクに対するインスタンスベースの近接アプローチを提案する。
各エンティティを1つのベクトルで表現する従来のエンティティ検索システムとは対照的に、同じエンティティの類似の言及を異なるエンティティの言及よりもベクトル空間に近づけることを学ぶコンテキスト化された参照エンコーダを構築する。
このアプローチは、推論がトレーニングセット内のラベル付きエンティティの完全なセットから取得し、最も近い参照の隣人のエンティティラベルを適用することを伴うため、エンティティのすべての言及が"クラスプロトタイプ"として機能することを可能にする。
本モデルは,ウィキペディアのハイパーリンクから派生した参照ペアの多言語コーパスに基づいて学習し,約7億の参照のインデックス上で最寄りの推測を行う。
トレーニングが簡単で、解釈可能な予測を提供し、2つの多言語エンティティリンクベンチマークで他のシステムよりも優れています。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Large-Scale Label Interpretation Learning for Few-Shot Named Entity Recognition [5.262708162539423]
名前付きエンティティ認識(NER)は、わずかな例だけでテキスト内の名前付きエンティティを検出する。
有望な研究の1つの行は、各エンティティタイプの自然言語記述を活用することである。
本稿では,新しい実体型の言語化を解釈する前に,強い意味が与える影響について考察する。
論文 参考訳(メタデータ) (2024-03-21T08:22:44Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - EnCore: Fine-Grained Entity Typing by Pre-Training Entity Encoders on
Coreference Chains [22.469469997734965]
本稿では,コアファーリングエンティティの埋め込みが,他のエンティティの埋め込みよりも互いに類似しているようなエンティティエンコーダの事前学習を提案する。
2つの異なるオフザシェルフシステムによって予測されるコア参照リンクのみを考える。
論文 参考訳(メタデータ) (2023-05-22T11:11:59Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Multilingual Autoregressive Entity Linking [49.35994386221958]
mGENREはMultilingual Entity Linking問題のためのシーケンス対シーケンスシステムである。
与えられた言語で言及すると、mGENREはターゲットエンティティの名前を左から右へ、トークンごとに予測します。
提案手法の有効性を3つのMELベンチマーク実験を含む広範囲な評価により示す。
論文 参考訳(メタデータ) (2021-03-23T13:25:55Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Entity Linking via Dual and Cross-Attention Encoders [16.23946458604865]
同一空間における参照やエンティティ表現を学習するデュアルエンコーダエンティティ検索システムを提案する。
次に、ターゲット参照と候補エンティティのそれぞれに対して、クロスアテンションエンコーダを使用してエンティティをリランクする。
TACKBP-2010データセットでは,92.05%の精度で最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-04-07T17:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。