論文の概要: LKD-KGC: Domain-Specific KG Construction via LLM-driven Knowledge Dependency Parsing
- arxiv url: http://arxiv.org/abs/2505.24163v1
- Date: Fri, 30 May 2025 03:10:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.745434
- Title: LKD-KGC: Domain-Specific KG Construction via LLM-driven Knowledge Dependency Parsing
- Title(参考訳): LKD-KGC:LLM駆動の知識依存解析によるドメイン特化KG構築
- Authors: Jiaqi Sun, Shiyou Qian, Zhangchi Han, Wei Li, Zelin Qian, Dingyu Yang, Jian Cao, Guangtao Xue,
- Abstract要約: 知識グラフ(KG)は現実世界の実体とそれらの関係を3重に構成し、様々なタスクに対する機械推論を強化する。
大規模言語モデル(LLM)に基づく知識グラフ構築への最近のアプローチは、効率的であることが証明されている。
教師なしドメイン固有KG構築のための新しいフレームワークであるLKD-KGCを提案する。
- 参考スコア(独自算出の注目度): 9.502380540548497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) structure real-world entities and their relationships into triples, enhancing machine reasoning for various tasks. While domain-specific KGs offer substantial benefits, their manual construction is often inefficient and requires specialized knowledge. Recent approaches for knowledge graph construction (KGC) based on large language models (LLMs), such as schema-guided KGC and reference knowledge integration, have proven efficient. However, these methods are constrained by their reliance on manually defined schema, single-document processing, and public-domain references, making them less effective for domain-specific corpora that exhibit complex knowledge dependencies and specificity, as well as limited reference knowledge. To address these challenges, we propose LKD-KGC, a novel framework for unsupervised domain-specific KG construction. LKD-KGC autonomously analyzes document repositories to infer knowledge dependencies, determines optimal processing sequences via LLM driven prioritization, and autoregressively generates entity schema by integrating hierarchical inter-document contexts. This schema guides the unsupervised extraction of entities and relationships, eliminating reliance on predefined structures or external knowledge. Extensive experiments show that compared with state-of-the-art baselines, LKD-KGC generally achieves improvements of 10% to 20% in both precision and recall rate, demonstrating its potential in constructing high-quality domain-specific KGs.
- Abstract(参考訳): 知識グラフ(KG)は現実世界の実体とそれらの関係を3重に構成し、様々なタスクに対する機械推論を強化する。
ドメイン固有のKGは大きな利点をもたらすが、手作業による構成はしばしば非効率であり、専門的な知識を必要とする。
大規模言語モデル(LLM)に基づく知識グラフ構築(KGC)に対する近年のアプローチは,スキーマ誘導KGCや参照知識統合など,効率的であることが証明されている。
しかし、これらの手法は、手動で定義されたスキーマ、単一文書処理、パブリックドメイン参照に依存しているため、複雑な知識依存や特異性を示すドメイン固有のコーパスや、限られた参照知識に対する効果が低い。
これらの課題に対処するために、教師なしドメイン固有のKG構築のための新しいフレームワークであるLKD-KGCを提案する。
LKD-KGCは、文書リポジトリを自律的に分析し、知識依存を推論し、LLMによる優先順位付けによって最適な処理シーケンスを決定し、階層的な文書間コンテキストを統合することでエンティティスキーマを自動回帰的に生成する。
このスキーマは、教師なしのエンティティとリレーションシップの抽出をガイドし、事前定義された構造や外部知識への依存を排除します。
最先端のベースラインと比較して、LKD-KGCは一般的に精度とリコール率の両方で10%から20%の改善を実現し、高品質なドメイン固有KGの構築の可能性を示している。
関連論文リスト
- Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - SAC-KG: Exploiting Large Language Models as Skilled Automatic Constructors for Domain Knowledge Graphs [32.93944146681218]
本稿では,大規模言語モデル(LLM)をドメイン知識グラフのためのスキル自動コンストラクタとして活用するための汎用的なKG構築フレームワークであるSAC-KGを提案する。
SAC-KGは、専門的で正確なマルチレベルKGを生成するために、LLMをドメインエキスパートとして効果的に扱う。
実験により、SAC-KGは100万以上のノードで自動的にドメインKGを構築し、89.32%の精度を達成することが示された。
論文 参考訳(メタデータ) (2024-09-22T13:55:23Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。