論文の概要: Retrieval, Reasoning, Re-ranking: A Context-Enriched Framework for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2411.08165v1
- Date: Tue, 12 Nov 2024 20:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:11:54.072654
- Title: Retrieval, Reasoning, Re-ranking: A Context-Enriched Framework for Knowledge Graph Completion
- Title(参考訳): Retrieval, Reasoning, Re-level: 知識グラフ補完のためのコンテキスト拡張フレームワーク
- Authors: Muzhi Li, Cehao Yang, Chengjin Xu, Xuhui Jiang, Yiyan Qi, Jian Guo, Ho-fung Leung, Irwin King,
- Abstract要約: 既存の埋め込みベースのメソッドは知識グラフのトリプルのみに依存している。
KGCのためのコンテキスト強化フレームワークであるKGR3を提案する。
広く使われているデータセットの実験では、KGR3は様々なKGCメソッドを一貫して改善している。
- 参考スコア(独自算出の注目度): 36.664300900246424
- License:
- Abstract: The Knowledge Graph Completion~(KGC) task aims to infer the missing entity from an incomplete triple. Existing embedding-based methods rely solely on triples in the KG, which is vulnerable to specious relation patterns and long-tail entities. On the other hand, text-based methods struggle with the semantic gap between KG triples and natural language. Apart from triples, entity contexts (e.g., labels, descriptions, aliases) also play a significant role in augmenting KGs. To address these limitations, we propose KGR3, a context-enriched framework for KGC. KGR3 is composed of three modules. Firstly, the Retrieval module gathers supporting triples from the KG, collects plausible candidate answers from a base embedding model, and retrieves context for each related entity. Then, the Reasoning module employs a large language model to generate potential answers for each query triple. Finally, the Re-ranking module combines candidate answers from the two modules mentioned above, and fine-tunes an LLM to provide the best answer. Extensive experiments on widely used datasets demonstrate that KGR3 consistently improves various KGC methods. Specifically, the best variant of KGR3 achieves absolute Hits@1 improvements of 12.3% and 5.6% on the FB15k237 and WN18RR datasets.
- Abstract(参考訳): Knowledge Graph Completion~(KGC)タスクは、欠落したエンティティを不完全な三重項から推測することを目的としている。
既存の埋め込み方式はKGのトリプルにのみ依存しており、これは特異な関係パターンや長い尾の実体に弱い。
一方、テキストベースの手法は、KG三重項と自然言語のセマンティックギャップに苦慮している。
三重項とは別に、エンティティコンテキスト(ラベル、記述、エイリアスなど)もKGの増強に重要な役割を果たしている。
これらの制約に対処するため、KGCのコンテキスト強化フレームワークであるKGR3を提案する。
KGR3は3つのモジュールから構成される。
まず、RetrievalモジュールはKGからの3つのトリプルを収集し、ベース埋め込みモデルから妥当な候補回答を収集し、関連する各エンティティのコンテキストを検索する。
次に、Reasoningモジュールは大きな言語モデルを使用して、クエリ毎に3倍の潜在的な回答を生成する。
最後に、Re- rankモジュールは上記の2つのモジュールから候補解を合成し、LLMを微調整して最良の解を提供する。
広く使われているデータセットに対する大規模な実験は、KGR3が様々なKGC法を一貫して改善していることを示している。
具体的には、KGR3の最良の変種は、FB15k237とWN18RRデータセットで12.3%と5.6%の絶対的なHits@1の改善を達成している。
関連論文リスト
- Retrieval-Augmented Language Model for Extreme Multi-Label Knowledge Graph Link Prediction [2.6749568255705656]
大規模言語モデル(LLM)における開放的調査のための外挿は2つの重要な問題に遭遇する。
既存の作業は、知識グラフからの情報により、より小さな言語モデルの入力を増大させることによって、この問題に対処しようとするものである。
我々は,モデルが複数の応答で外挿を行うことを可能にするために,新たなタスク,極端なマルチラベルKGリンク予測タスクを提案する。
論文 参考訳(メタデータ) (2024-05-21T10:10:56Z) - Multi-hop Question Answering over Knowledge Graphs using Large Language Models [1.8130068086063336]
複数のホップを含む知識グラフに答える能力(LLM)を評価する。
我々は、KGのサイズや性質によって、関連する情報をLLMに抽出し、供給するために異なるアプローチが必要であることを示す。
論文 参考訳(メタデータ) (2024-04-30T03:31:03Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - DynaSemble: Dynamic Ensembling of Textual and Structure-Based Models for Knowledge Graph Completion [27.068271260978143]
我々は知識グラフ補完(KGC)に対する2つの一般的なアプローチを考える。
本研究では,クエリ依存型アンサンブル重み学習手法であるDynaSembleを提案する。
DynaSembleは、3つの標準KGCデータセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-11-07T07:53:06Z) - Separate-and-Aggregate: A Transformer-based Patch Refinement Model for
Knowledge Graph Completion [28.79628925695775]
本稿では,知識グラフ補完のための新しいトランスフォーマーベースのパッチリファインメントモデル(PatReFormer)を提案する。
我々は4つのKGCベンチマーク(WN18RR, FB15k-237, YAGO37, DB100K)で実験を行った。
実験結果から, 既存のKGC法と標準KGC評価指標との有意な性能向上が得られた。
論文 参考訳(メタデータ) (2023-07-11T06:27:13Z) - Graph Reasoning for Question Answering with Triplet Retrieval [33.454090126152714]
知識グラフ(KGs)から最も関連性の高い三つ子を抽出する簡便で効果的な方法を提案する。
我々の手法は最先端の精度を4.6%まで上回ることができる。
論文 参考訳(メタデータ) (2023-05-30T04:46:28Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。