論文の概要: Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models
- arxiv url: http://arxiv.org/abs/2403.01972v1
- Date: Mon, 4 Mar 2024 12:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:57:18.917645
- Title: Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models
- Title(参考訳): 大規模言語モデルによる知識グラフ補完のマルチパースペクティブ改善
- Authors: Derong Xu, Ziheng Zhang, Zhenxi Lin, Xian Wu, Zhihong Zhu, Tong Xu,
Xiangyu Zhao, Yefeng Zheng and Enhong Chen
- Abstract要約: 我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
- 参考スコア(独自算出の注目度): 95.31941227776711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) is a widely used method to tackle
incompleteness in knowledge graphs (KGs) by making predictions for missing
links. Description-based KGC leverages pre-trained language models to learn
entity and relation representations with their names or descriptions, which
shows promising results. However, the performance of description-based KGC is
still limited by the quality of text and the incomplete structure, as it lacks
sufficient entity descriptions and relies solely on relation names, leading to
sub-optimal results. To address this issue, we propose MPIKGC, a general
framework to compensate for the deficiency of contextualized knowledge and
improve KGC by querying large language models (LLMs) from various perspectives,
which involves leveraging the reasoning, explanation, and summarization
capabilities of LLMs to expand entity descriptions, understand relations, and
extract structures, respectively. We conducted extensive evaluation of the
effectiveness and improvement of our framework based on four description-based
KGC models and four datasets, for both link prediction and triplet
classification tasks.
- Abstract(参考訳): 知識グラフ補完(KGC)は知識グラフの不完全性に対処するために広く用いられている手法である。
説明ベースのkgcは、事前学習された言語モデルを利用して、名前や記述でエンティティや関係表現を学習し、有望な結果を示す。
しかしながら、記述に基づくKGCの性能は、十分なエンティティ記述がなく、関係名のみに依存するため、テキストの品質と不完全な構造によって制限され、準最適結果をもたらす。
この問題に対処するために,MPIKGCを提案する。このフレームワークは,LLMの推論,説明,要約機能を活用し,エンティティ記述を拡張し,関係を理解し,構造を抽出することで,文脈的知識の不足を補うとともに,さまざまな視点から大きな言語モデル(LLM)をクエリすることで,KGCを改善するための一般的なフレームワークである。
4つの記述型KGCモデルと4つのデータセットに基づいて、リンク予測とトリプルト分類の両タスクにおいて、フレームワークの有効性と改善を広範囲に評価した。
関連論文リスト
- G-Refer: Graph Retrieval-Augmented Large Language Model for Explainable Recommendation [48.23263809469786]
本稿では,グラフ検索拡張大言語モデル (LLM) を用いた提案手法を提案する。
G-Referは、説明可能性と安定性の両方において既存の手法と比較して優れた性能を達成する。
論文 参考訳(メタデータ) (2025-02-18T06:42:38Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - A Contextualized BERT model for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)のためのコンテキスト化BERTモデルを提案する。
本モデルでは,エンティティ記述や負の三重項サンプリングの必要性を排除し,計算要求を低減し,性能を向上する。
FB15k-237とWN18RRでは,Hit@1が5.3%向上し,4.88%向上した。
論文 参考訳(メタデータ) (2024-12-15T02:03:16Z) - KICGPT: Large Language Model with Knowledge in Context for Knowledge
Graph Completion [27.405080941584533]
本稿では,大規模言語モデルと3次元KGCレトリバーを統合したフレームワークKICGPTを提案する。
追加のトレーニングオーバーヘッドを発生させることなく、長い尾の問題を軽減する。
ベンチマークデータセットの実証結果は、KICGPTの有効性を示し、トレーニングオーバーヘッドは小さく、微調整は行わない。
論文 参考訳(メタデータ) (2024-02-04T08:01:07Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - MoCoSA: Momentum Contrast for Knowledge Graph Completion with
Structure-Augmented Pre-trained Language Models [11.57782182864771]
構造強化事前学習言語モデル(MoCoSA)を用いた知識グラフ補完のためのMomentum Contrastを提案する。
また,WN18RRでは2.5%,OpenBG500では21%向上した。
論文 参考訳(メタデータ) (2023-08-16T08:09:10Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Language Models as Knowledge Embeddings [26.384327693266837]
本稿では,言語モデルを用いて知識埋め込みを導出するLMKEを提案する。
我々は、記述に基づくKE学習を対照的な学習フレームワークで定式化し、トレーニングと評価の効率を向上させる。
論文 参考訳(メタデータ) (2022-06-25T10:39:12Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。