論文の概要: Are Large Language Models Effective Knowledge Graph Constructors?
- arxiv url: http://arxiv.org/abs/2510.11297v1
- Date: Mon, 13 Oct 2025 11:37:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.34332
- Title: Are Large Language Models Effective Knowledge Graph Constructors?
- Title(参考訳): 大規模言語モデルは効果的な知識グラフコンストラクタか?
- Authors: Ruirui Chen, Weifeng Jiang, Chengwei Qin, Bo Xiong, Fiona Liausvia, Dongkyu Choi, Boon Kiat Quek,
- Abstract要約: 知識グラフ(KG)は知識集約的なタスクに不可欠であり、大型言語モデル(LLM)における幻覚の低減に有望であることを示す。
本稿では,複数のレベルで情報を整理し,セマンティックにリッチで構造化されたKGの作成を可能にする階層的抽出フレームワークを提案する。
現状のLLMを用いて知識グラフを抽出・構築し,構造的・意味的両面から包括的に評価する。
- 参考スコア(独自算出の注目度): 26.60279256406507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) are vital for knowledge-intensive tasks and have shown promise in reducing hallucinations in large language models (LLMs). However, constructing high-quality KGs remains difficult, requiring accurate information extraction and structured representations that support interpretability and downstream utility. Existing LLM-based approaches often focus narrowly on entity and relation extraction, limiting coverage to sentence-level contexts or relying on predefined schemas. We propose a hierarchical extraction framework that organizes information at multiple levels, enabling the creation of semantically rich and well-structured KGs. Using state-of-the-art LLMs, we extract and construct knowledge graphs and evaluate them comprehensively from both structural and semantic perspectives. Our results highlight the strengths and shortcomings of current LLMs in KG construction and identify key challenges for future work. To advance research in this area, we also release a curated dataset of LLM-generated KGs derived from research papers on children's mental well-being. This resource aims to foster more transparent, reliable, and impactful applications in high-stakes domains such as healthcare.
- Abstract(参考訳): 知識グラフ(KGs)は知識集約的なタスクには不可欠であり、大きな言語モデル(LLMs)における幻覚の低減に寄与している。
しかし、高品質なKGの構築は依然として困難であり、正確な情報抽出と、解釈可能性と下流ユーティリティをサポートする構造化表現が必要である。
既存のLLMベースのアプローチは、エンティティと関係抽出、文レベルのコンテキストへのカバレッジの制限、事前定義されたスキーマへの依存に焦点を絞ることが多い。
本稿では,複数のレベルで情報を整理し,セマンティックにリッチで構造化されたKGの作成を可能にする階層的抽出フレームワークを提案する。
現状のLLMを用いて知識グラフを抽出・構築し,構造的・意味的両面から包括的に評価する。
本稿は,KG 構築における現在の LLM の長所と短所を強調し,今後の課題を明らかにした。
また、この領域の研究を進めるために、子どもの精神的健康に関する研究論文から得られたLCM生成KGのデータセットも公開する。
このリソースは、医療などの高度な領域において、より透明性があり、信頼性があり、影響力のあるアプリケーションを促進することを目的としています。
関連論文リスト
- A Human-in-the-Loop, LLM-Centered Architecture for Knowledge-Graph Question Answering [41.99844472131922]
大きな言語モデルは言語理解において優れているが、知識集約的なドメインでは限られている。
この研究は、LLMがCypherグラフクエリを生成して説明するインタラクティブなフレームワークを導入している。
論文 参考訳(メタデータ) (2026-02-05T10:10:19Z) - Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs [15.260879306368674]
SSKG-LLMは、KGの構造情報を大規模言語モデルの推論プロセスに効率的に統合する革新的なモデルアーキテクチャである。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
論文 参考訳(メタデータ) (2025-09-26T12:14:01Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Thinking with Knowledge Graphs: Enhancing LLM Reasoning Through Structured Data [0.9284740716447338]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
近年の研究では、知識グラフ(KG)を活用してLLM性能を向上させるという有望な成果が示されている。
我々は、KG構造と意味論をLLM表現に密に統合する様々な手法を開発した。
論文 参考訳(メタデータ) (2024-12-14T02:51:47Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Ontology Population using LLMs [0.9894420655516563]
知識グラフ(KG)は、データ統合、表現、可視化にますます活用されている。
LLMはそのようなタスクに有望な機能を提供し、自然言語の理解とコンテンツ生成に優れています。
本研究では、Enslaved.org Hub Ontologyに着目し、KG集団に対するLLMの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-03T15:39:20Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Dual Reasoning: A GNN-LLM Collaborative Framework for Knowledge Graph Question Answering [38.31983923708175]
我々は、知識グラフ(KGs)の明示的推論のために、グラフニューラルネットワーク(GNN)に基づく外部システムを統合する新しいフレームワークであるDual-Reasoningを提案する。
我々は,DualRが高効率と解釈性を維持しつつ,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-06-03T09:38:28Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
大規模言語モデル(LLM)の処理と知識グラフ(KG)の解釈について検討する。
リテラルレベルでは、様々な入力形式に対するLLMの好みを明らかにする。
注意分布レベルでは、これらの嗜好を駆動するメカニズムについて論じる。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities [66.36633042421387]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。