論文の概要: Knowledge Base Completion for Long-Tail Entities
- arxiv url: http://arxiv.org/abs/2306.17472v1
- Date: Fri, 30 Jun 2023 08:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:15:12.286982
- Title: Knowledge Base Completion for Long-Tail Entities
- Title(参考訳): ロングテールエンティティの知識ベース補完
- Authors: Lihu Chen, Simon Razniewski, Gerhard Weikum
- Abstract要約: 本稿では,長テールエンティティに関する事実を特に対象とする,LMベースのKB補完手法を提案する。
提案手法はF1における全てのベースラインを上回り,特にリコールにおいて大きな利得を得た。
- 参考スコア(独自算出の注目度): 34.365817993951275
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite their impressive scale, knowledge bases (KBs), such as Wikidata,
still contain significant gaps. Language models (LMs) have been proposed as a
source for filling these gaps. However, prior works have focused on prominent
entities with rich coverage by LMs, neglecting the crucial case of long-tail
entities. In this paper, we present a novel method for LM-based-KB completion
that is specifically geared for facts about long-tail entities. The method
leverages two different LMs in two stages: for candidate retrieval and for
candidate verification and disambiguation. To evaluate our method and various
baselines, we introduce a novel dataset, called MALT, rooted in Wikidata. Our
method outperforms all baselines in F1, with major gains especially in recall.
- Abstract(参考訳): その印象的な規模にもかかわらず、Wikidataのような知識ベース(KB)には大きなギャップがある。
これらのギャップを埋めるための情報源として言語モデル(LM)が提案されている。
しかし、先行研究は、長尾エンティティの重要なケースを無視して、LMによる豊富なカバレッジを持つ顕著なエンティティに焦点を当ててきた。
本稿では,長大なエンティティに関する事実を具体化したLMベースのKB補完手法を提案する。
この方法は2つの段階において2つの異なるlmsを活用する: 候補検索と候補検証と曖昧さ解消である。
本手法と各種ベースラインを評価するため,WikidataをルーツとしたMALTと呼ばれる新しいデータセットを提案する。
提案手法はF1における全てのベースラインを上回り,特にリコールにおいて大きな利得を得た。
関連論文リスト
- Found in the Middle: How Language Models Use Long Contexts Better via
Plug-and-Play Positional Encoding [78.36702055076456]
本稿では,マルチスケール位置決めについて紹介する。
(Ms-PoE)は、シンプルで効果的なプラグアンドプレイ方式で、キャパシティを向上させる。
LLMはコンテキストの中央に位置する関連情報を扱う。
論文 参考訳(メタデータ) (2024-03-05T04:58:37Z) - Leveraging External Knowledge Resources to Enable Domain-Specific
Comprehension [4.3905207721537804]
機械読み取り(MRC)は、NLPの長年の問題である。
汎用テキストコーパスで訓練されたBERT変種は、ドメイン固有のテキストに適用される。
本稿では,知識グラフから抽出した埋め込みと,事前学習した言語モデルの埋め込み空間の整合と統合のための,MLP(Multi-Layer Perceptrons)を用いた手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T21:43:46Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Using Large Language Models for Knowledge Engineering (LLMKE): A Case
Study on Wikidata [3.0199774504647583]
ISWC 2023 LM-KBC Challengeの文脈において,知識工学のタスクにLarge Language Models (LLMs) を用いることを検討する。
本課題では,Wikidata から抽出した対象と関係のペアについて,学習済みの LLM を用いて,関連オブジェクトを文字列形式で生成し,それぞれの Wikidata QID にリンクする。
論文 参考訳(メタデータ) (2023-09-15T15:51:14Z) - Entity Cloze By Date: What LMs Know About Unseen Entities [79.34707800653597]
言語モデル(LM)は通常、大規模なコーパスで一度訓練され、更新されずに数年間使用される。
本研究では,LMの事前学習時に存在しなかった新しいエンティティについて,LMがどのような推論ができるのかを解析する枠組みを提案する。
本論文は,その発祥日によって索引付けされたエンティティのデータセットを,英語のウィキペディア記事と組み合わせて作成し,各エンティティに関する文章を検索する。
論文 参考訳(メタデータ) (2022-05-05T17:59:31Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - Improving Candidate Generation for Low-resource Cross-lingual Entity
Linking [81.41804263432684]
XEL(クロスランガル・エンティティ・リンク)は、ソース言語テキストから抽出された参照をターゲット言語知識ベース(KB)で検索するタスクである。
本稿では,(1)エンティティ参照とKBエントリの切断を減らすこと,(2)低リソースシナリオへのモデルの堅牢性を改善すること,の3つの改良を提案する。
論文 参考訳(メタデータ) (2020-03-03T05:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。