論文の概要: LLM-empowered knowledge graph construction: A survey
- arxiv url: http://arxiv.org/abs/2510.20345v1
- Date: Thu, 23 Oct 2025 08:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.631035
- Title: LLM-empowered knowledge graph construction: A survey
- Title(参考訳): LLMを活用した知識グラフ構築:調査
- Authors: Haonan Bian,
- Abstract要約: 知識グラフは長い間、構造化知識表現と推論の基盤として機能してきた。
LLM(Large Language Models)の出現により、KGsの構築は、ルールベースおよび統計パイプラインから言語駆動および生成フレームワークへの、新たなパラダイムシフトに入った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) have long served as a fundamental infrastructure for structured knowledge representation and reasoning. With the advent of Large Language Models (LLMs), the construction of KGs has entered a new paradigm-shifting from rule-based and statistical pipelines to language-driven and generative frameworks. This survey provides a comprehensive overview of recent progress in LLM-empowered knowledge graph construction, systematically analyzing how LLMs reshape the classical three-layered pipeline of ontology engineering, knowledge extraction, and knowledge fusion. We first revisit traditional KG methodologies to establish conceptual foundations, and then review emerging LLM-driven approaches from two complementary perspectives: schema-based paradigms, which emphasize structure, normalization, and consistency; and schema-free paradigms, which highlight flexibility, adaptability, and open discovery. Across each stage, we synthesize representative frameworks, analyze their technical mechanisms, and identify their limitations. Finally, the survey outlines key trends and future research directions, including KG-based reasoning for LLMs, dynamic knowledge memory for agentic systems, and multimodal KG construction. Through this systematic review, we aim to clarify the evolving interplay between LLMs and knowledge graphs, bridging symbolic knowledge engineering and neural semantic understanding toward the development of adaptive, explainable, and intelligent knowledge systems.
- Abstract(参考訳): 知識グラフ(KG)は、構造化された知識表現と推論の基盤として長く使われてきた。
LLM(Large Language Models)の出現により、KGsの構築は、ルールベースおよび統計パイプラインから言語駆動および生成フレームワークへの、新たなパラダイムシフトに入った。
この調査は、LLMを利用した知識グラフ構築の最近の進歩を包括的に概観し、LLMが古典的な3層パイプラインであるオントロジー工学、知識抽出、知識融合をどのように形成するかを体系的に分析する。
まず、従来のKG方法論を見直して概念基盤を確立し、次に、構造、正規化、一貫性を重視したスキーマベースのパラダイムと、柔軟性、適応性、オープンディスカバリを強調したスキーマフリーパラダイムの2つの相補的な視点からLLM駆動アプローチを見直します。
各ステージにまたがって、代表的フレームワークを合成し、その技術的メカニズムを分析し、それらの制限を識別する。
最後に、LLMのKGベースの推論、エージェントシステムのための動的知識メモリ、マルチモーダルKG構築など、主要なトレンドと今後の研究方向性について概説する。
本稿では,LLMと知識グラフの相互作用を解明し,適応的で説明可能な知的知識システムの開発に向けて,記号的知識工学と神経意味理解を橋渡しすることを目的とする。
関連論文リスト
- Generative Large Language Models for Knowledge Representation: A Systematic Review of Concept Map Generation [1.163826615891678]
生成型大規模言語モデル(LLM)の台頭により,概念地図による知識表現を自動化する新たな機会が開かれた。
本総説では, LLM を用いた概念マップ生成に関する新たな研究の体系化について述べる。
人間のループシステム、弱い教師付き学習モデル、微調整されたドメイン固有LLM、素早いエンジニアリングによる事前訓練されたLLM、知識ベースを統合するハイブリッドシステム、シンボルと統計ツールを組み合わせたモジュラーフレームワークである。
論文 参考訳(メタデータ) (2025-09-18T02:36:54Z) - Ontology-Enhanced Knowledge Graph Completion using Large Language Models [14.954155147351623]
大言語モデル(LLM)は知識グラフ補完(KGC)において広く採用されている。
OL-KGCを用いた拡張KGC法を提案する。
まず、神経知覚機構を利用して、構造情報をテキスト空間に効果的に埋め込む。
論文 参考訳(メタデータ) (2025-07-28T09:00:48Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - From Symbolic to Neural and Back: Exploring Knowledge Graph-Large Language Model Synergies [4.118037156777793]
本稿では,知識グラフ(KG)と大規模言語モデル(LLM)の相乗効果を系統的に検討する。
KGは、推論を改善し、幻覚を減らし、複雑な質問応答を可能にするLLMと、KGの構築、完了、クエリを容易にするLLM拡張KGである。
本稿では, ニューロシンボリックな統合, ダイナミックなKG更新, データの信頼性, 倫理的考察, より複雑な現実世界の知識タスクを管理できるインテリジェントシステムの実現など, 今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-06-11T09:58:14Z) - Abstractive Visual Understanding of Multi-modal Structured Knowledge: A New Perspective for MLLM Evaluation [48.462734327375536]
MLLM(Multi-modal large language model)は、多種多様なシナリオやオブジェクトの包括的理解を可能にする。
MLLMの評価ベンチマークやリーダーボードの普及にもかかわらず、彼らはMLLMが視覚的に現れる構造化された抽象化で世界的知識を理解する上で重要な能力を見落としている。
構造化理解のためのマルチモーダルマップを基盤とした,革新的なベンチマークであるM3STRを提案する。
その結果,抽象的視覚情報を構造化知識で処理し,MLLMの総合的推論能力を向上させるための重要な軌道を図った。
論文 参考訳(メタデータ) (2025-06-02T04:00:35Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Large Knowledge Model: Perspectives and Challenges [37.42721596964844]
emphLarge Language Models (LLMs) は、広範囲なシーケンスベースの世界知識をニューラルネットワークに事前学習する。
本稿では,「知識」のレンズを用いた大規模モデルについて考察する。
人間の知識の複雑な性質を考えると、私たちはEmphLarge Knowledge Models(LKM)の作成を提唱する。
論文 参考訳(メタデータ) (2023-12-05T12:07:30Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。