論文の概要: MOLEMAN: Mention-Only Linking of Entities with a Mention Annotation
Network
- arxiv url: http://arxiv.org/abs/2106.07352v1
- Date: Wed, 2 Jun 2021 15:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:08:01.356373
- Title: MOLEMAN: Mention-Only Linking of Entities with a Mention Annotation
Network
- Title(参考訳): moleman氏: 参照のみのエンティティと参照アノテーションネットワークのリンク
- Authors: Nicholas FitzGerald, Jan A. Botha, Daniel Gillick, Daniel M. Bikel,
Tom Kwiatkowski, Andrew McCallum
- Abstract要約: 本稿では、エンティティリンクに対して、インスタンスベースの近接アプローチを提案する。
我々は、同じ実体の類似した言及を、異なる実体の言及よりもベクトル空間に近づけることを学ぶ、文脈化された参照エンコーダを構築する。
本モデルは,ウィキペディアのハイパーリンクから派生した参照ペアの多言語コーパスに基づいて学習し,約7億の参照のインデックス上で最寄りの推測を行う。
- 参考スコア(独自算出の注目度): 31.65990156182273
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present an instance-based nearest neighbor approach to entity linking. In
contrast to most prior entity retrieval systems which represent each entity
with a single vector, we build a contextualized mention-encoder that learns to
place similar mentions of the same entity closer in vector space than mentions
of different entities. This approach allows all mentions of an entity to serve
as "class prototypes" as inference involves retrieving from the full set of
labeled entity mentions in the training set and applying the nearest mention
neighbor's entity label. Our model is trained on a large multilingual corpus of
mention pairs derived from Wikipedia hyperlinks, and performs nearest neighbor
inference on an index of 700 million mentions. It is simpler to train, gives
more interpretable predictions, and outperforms all other systems on two
multilingual entity linking benchmarks.
- Abstract(参考訳): 本稿では、エンティティリンクに対するインスタンスベースの近接アプローチを提案する。
各エンティティを1つのベクトルで表現する従来のエンティティ検索システムとは対照的に、同じエンティティの類似の言及を異なるエンティティの言及よりもベクトル空間に近づけることを学ぶコンテキスト化された参照エンコーダを構築する。
このアプローチは、推論がトレーニングセット内のラベル付きエンティティの完全なセットから取得し、最も近い参照の隣人のエンティティラベルを適用することを伴うため、エンティティのすべての言及が"クラスプロトタイプ"として機能することを可能にする。
本モデルは,ウィキペディアのハイパーリンクから派生した参照ペアの多言語コーパスに基づいて学習し,約7億の参照のインデックス上で最寄りの推測を行う。
トレーニングが簡単で、解釈可能な予測を提供し、2つの多言語エンティティリンクベンチマークで他のシステムよりも優れています。
関連論文リスト
- Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - EnCore: Fine-Grained Entity Typing by Pre-Training Entity Encoders on
Coreference Chains [22.469469997734965]
本稿では,コアファーリングエンティティの埋め込みが,他のエンティティの埋め込みよりも互いに類似しているようなエンティティエンコーダの事前学習を提案する。
2つの異なるオフザシェルフシステムによって予測されるコア参照リンクのみを考える。
論文 参考訳(メタデータ) (2023-05-22T11:11:59Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - A Unified Approach to Entity-Centric Context Tracking in Social
Conversations [6.0969408858730985]
人間と人間の会話において、コンテキストトラッキングは重要な実体を特定し、それらの性質と関係を追跡する。
Contrackは、人間と人間の大規模会話コーパスで、コンテキストトラッキングと位置アノテーションを提供する。
コンテキストトラッキングのためのニューラルネットワークアーキテクチャをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-01-28T20:38:13Z) - Knowledge-Rich Self-Supervised Entity Linking [58.838404666183656]
Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
論文 参考訳(メタデータ) (2021-12-15T05:05:12Z) - Multilingual Autoregressive Entity Linking [49.35994386221958]
mGENREはMultilingual Entity Linking問題のためのシーケンス対シーケンスシステムである。
与えられた言語で言及すると、mGENREはターゲットエンティティの名前を左から右へ、トークンごとに予測します。
提案手法の有効性を3つのMELベンチマーク実験を含む広範囲な評価により示す。
論文 参考訳(メタデータ) (2021-03-23T13:25:55Z) - LOME: Large Ontology Multilingual Extraction [41.03628217448552]
LOMEは多言語情報抽出を行うシステムである。
入力としてテキストドキュメントが与えられると、コアシステムはテキストエンティティとイベント参照をFrameNetで識別する。
これにより、システムはイベントとエンティティに焦点を当てた知識グラフを構築する。
論文 参考訳(メタデータ) (2021-01-28T18:28:59Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Cross-lingual Entity Alignment with Incidental Supervision [76.66793175159192]
本稿では,多言語KGとテキストコーパスを共通埋め込み方式で共同で表現する,偶発的に教師付きモデルであるJEANSを提案する。
ベンチマークデータセットの実験では、JEANSがエンティティアライメントとインシデントインシデントインシデントインスペクションの改善を期待できる結果となった。
論文 参考訳(メタデータ) (2020-05-01T01:53:56Z) - Entity Linking via Dual and Cross-Attention Encoders [16.23946458604865]
同一空間における参照やエンティティ表現を学習するデュアルエンコーダエンティティ検索システムを提案する。
次に、ターゲット参照と候補エンティティのそれぞれに対して、クロスアテンションエンコーダを使用してエンティティをリランクする。
TACKBP-2010データセットでは,92.05%の精度で最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-04-07T17:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。