論文の概要: Can LLMs be Good Graph Judge for Knowledge Graph Construction?
- arxiv url: http://arxiv.org/abs/2411.17388v3
- Date: Tue, 20 May 2025 16:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:51.55582
- Title: Can LLMs be Good Graph Judge for Knowledge Graph Construction?
- Title(参考訳): LLMは知識グラフ構築にとって良いグラフ判断か?
- Authors: Haoyu Huang, Chong Chen, Zeang Sheng, Yang Li, Wentao Zhang,
- Abstract要約: 上記の課題に対処するためのKG構築フレームワークである textbfGraphJudge を提案する。
本フレームワークでは,文書中のノイズ情報を除去するためのエンティティ中心の戦略を設計する。
そして、LLMをグラフ判定器として微調整し、生成したKGの品質を最終的に向上させた。
- 参考スコア(独自算出の注目度): 24.752904398871127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world scenarios, most of the data obtained from the information retrieval (IR) system is unstructured. Converting natural language sentences into structured Knowledge Graphs (KGs) remains a critical challenge. We identified three limitations with respect to existing KG construction methods: (1) There could be a large amount of noise in real-world documents, which could result in extracting messy information. (2) Naive LLMs usually extract inaccurate knowledge from some domain-specific documents. (3) Hallucination phenomenon cannot be overlooked when directly using LLMs to construct KGs. In this paper, we propose \textbf{GraphJudge}, a KG construction framework to address the aforementioned challenges. In this framework, we designed an entity-centric strategy to eliminate the noise information in the documents. And we fine-tuned a LLM as a graph judge to finally enhance the quality of generated KGs. Experiments conducted on two general and one domain-specific text-graph pair datasets demonstrate state-of-the-art performance against various baseline methods with strong generalization abilities. Our code is available at \href{https://github.com/hhy-huang/GraphJudge}{https://github.com/hhy-huang/GraphJudge}.
- Abstract(参考訳): 実世界のシナリオでは、情報検索(IR)システムから得られたデータのほとんどは構造化されていない。
自然言語文を構造化知識グラフ(KG)に変換することは依然として重要な課題である。
我々は,既存のKG構築手法に関して,(1)現実世界の文書に大量のノイズがあり,乱雑な情報を抽出する可能性がある,という3つの限界を特定した。
2 LLMは、通常、いくつかのドメイン固有の文書から不正確な知識を抽出する。
(3) 幻覚現象は、直接LLMを用いてKGを構成する際には見過ごせない。
本稿では、上記の課題に対処するKG構築フレームワークである「textbf{GraphJudge}」を提案する。
本フレームワークでは,文書中のノイズ情報を除去するためのエンティティ中心の戦略を設計する。
そして、LLMをグラフ判定器として微調整し、生成したKGの品質を最終的に向上させた。
2つの一般および1つのドメイン固有のテキストグラフペアデータセットで実施された実験は、強力な一般化能力を持つ様々なベースライン手法に対して最先端の性能を示す。
私たちのコードは \href{https://github.com/hhy-huang/GraphJudge}{https://github.com/hhy-huang/GraphJudge} で利用可能です。
関連論文リスト
- GraphRAFT: Retrieval Augmented Fine-Tuning for Knowledge Graphs on Graph Databases [0.0]
GraphRAFTは、LCMを微調整して、確実に正しいCypherクエリを生成する、検索と推論のためのフレームワークである。
本手法は,自然グラフDBに格納された知識グラフを用いて,棚から取り出すことができる最初の方法である。
論文 参考訳(メタデータ) (2025-04-07T20:16:22Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - KG-CF: Knowledge Graph Completion with Context Filtering under the Guidance of Large Language Models [55.39134076436266]
KG-CFはランキングベースの知識グラフ補完タスクに適したフレームワークである。
KG-CFは、LLMの推論能力を活用して、無関係なコンテキストをフィルタリングし、現実世界のデータセットで優れた結果を得る。
論文 参考訳(メタデータ) (2025-01-06T01:52:15Z) - Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - Comprehending Knowledge Graphs with Large Language Models for Recommender Systems [13.270018897057293]
本稿では,知識認識のための大規模言語モデルを活用したCoLaKGという新しい手法を提案する。
まず、KG から各項目を中心とする部分グラフを抽出し、それらを LLM のテキスト入力に変換する。
LLMはこれらの項目中心のサブグラフの理解を出力し、その後セマンティック埋め込みに変換する。
論文 参考訳(メタデータ) (2024-10-16T04:44:34Z) - iText2KG: Incremental Knowledge Graphs Construction Using Large Language Models [0.7165255458140439]
iText2KGは、後処理なしで漸進的にトピックに依存しない知識グラフを構築する方法である。
提案手法は,3つのシナリオにまたがるベースライン手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-05T06:49:14Z) - Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Can LLMs Effectively Leverage Graph Structural Information through Prompts, and Why? [18.328637750057037]
大きな言語モデル(LLM)は、リッチテキスト属性でグラフを処理する能力に注目が集まっている。
グラフデータに固有の構造情報の取り込みにより,LLMの予測性能が向上する理由を理解することを目的としている。
論文 参考訳(メタデータ) (2023-09-28T16:58:37Z) - Using Large Language Models for Zero-Shot Natural Language Generation
from Knowledge Graphs [4.56877715768796]
我々は,ChatGPTがWebNLG 2020の課題に対して,最先端のパフォーマンスを達成していることを示す。
また、LLMが解析しているデータについて既に知っていることと、出力テキストの品質との間には大きな関連性があることも示している。
論文 参考訳(メタデータ) (2023-07-14T12:45:03Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。