論文の概要: Knowledge Base Completion for Long-Tail Entities
- arxiv url: http://arxiv.org/abs/2306.17472v1
- Date: Fri, 30 Jun 2023 08:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:15:12.286982
- Title: Knowledge Base Completion for Long-Tail Entities
- Title(参考訳): ロングテールエンティティの知識ベース補完
- Authors: Lihu Chen, Simon Razniewski, Gerhard Weikum
- Abstract要約: 本稿では,長テールエンティティに関する事実を特に対象とする,LMベースのKB補完手法を提案する。
提案手法はF1における全てのベースラインを上回り,特にリコールにおいて大きな利得を得た。
- 参考スコア(独自算出の注目度): 34.365817993951275
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite their impressive scale, knowledge bases (KBs), such as Wikidata,
still contain significant gaps. Language models (LMs) have been proposed as a
source for filling these gaps. However, prior works have focused on prominent
entities with rich coverage by LMs, neglecting the crucial case of long-tail
entities. In this paper, we present a novel method for LM-based-KB completion
that is specifically geared for facts about long-tail entities. The method
leverages two different LMs in two stages: for candidate retrieval and for
candidate verification and disambiguation. To evaluate our method and various
baselines, we introduce a novel dataset, called MALT, rooted in Wikidata. Our
method outperforms all baselines in F1, with major gains especially in recall.
- Abstract(参考訳): その印象的な規模にもかかわらず、Wikidataのような知識ベース(KB)には大きなギャップがある。
これらのギャップを埋めるための情報源として言語モデル(LM)が提案されている。
しかし、先行研究は、長尾エンティティの重要なケースを無視して、LMによる豊富なカバレッジを持つ顕著なエンティティに焦点を当ててきた。
本稿では,長大なエンティティに関する事実を具体化したLMベースのKB補完手法を提案する。
この方法は2つの段階において2つの異なるlmsを活用する: 候補検索と候補検証と曖昧さ解消である。
本手法と各種ベースラインを評価するため,WikidataをルーツとしたMALTと呼ばれる新しいデータセットを提案する。
提案手法はF1における全てのベースラインを上回り,特にリコールにおいて大きな利得を得た。
関連論文リスト
- On Positional Bias of Faithfulness for Long-form Summarization [83.63283027830657]
LLM(Large Language Models)は、長いコンテキスト設定において、入力の途中で情報に過小評価される位置バイアスを示すことが多い。
長文要約におけるこのバイアスの存在、その忠実性への影響、およびこのバイアスを軽減するための様々な技術について検討する。
論文 参考訳(メタデータ) (2024-10-31T03:50:15Z) - Found in the Middle: How Language Models Use Long Contexts Better via
Plug-and-Play Positional Encoding [78.36702055076456]
本稿では,マルチスケール位置決めについて紹介する。
(Ms-PoE)は、シンプルで効果的なプラグアンドプレイ方式で、キャパシティを向上させる。
LLMはコンテキストの中央に位置する関連情報を扱う。
論文 参考訳(メタデータ) (2024-03-05T04:58:37Z) - In Search of the Long-Tail: Systematic Generation of Long-Tail Inferential Knowledge via Logical Rule Guided Search [67.35240346713911]
推論知識の長期分布において,大規模言語モデル (LLM) を評価するための第一歩を踏み出す。
Linkは体系的なロングテールデータ生成フレームワークであり、事実的に正しいがロングテール推論ステートメントを取得する。
次に、LINKを用いてLINT(Logic-induced-Long-Tail)をキュレートする。
論文 参考訳(メタデータ) (2023-11-13T10:56:59Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Using Large Language Models for Knowledge Engineering (LLMKE): A Case
Study on Wikidata [3.0199774504647583]
ISWC 2023 LM-KBC Challengeの文脈において,知識工学のタスクにLarge Language Models (LLMs) を用いることを検討する。
本課題では,Wikidata から抽出した対象と関係のペアについて,学習済みの LLM を用いて,関連オブジェクトを文字列形式で生成し,それぞれの Wikidata QID にリンクする。
論文 参考訳(メタデータ) (2023-09-15T15:51:14Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。