論文の概要: SAC-KG: Exploiting Large Language Models as Skilled Automatic Constructors for Domain Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2410.02811v1
- Date: Sun, 22 Sep 2024 13:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:34:38.722463
- Title: SAC-KG: Exploiting Large Language Models as Skilled Automatic Constructors for Domain Knowledge Graphs
- Title(参考訳): SAC-KG:ドメイン知識グラフのための熟練コンストラクタとしての大規模言語モデルの爆発
- Authors: Hanzhu Chen, Xu Shen, Qitan Lv, Jie Wang, Xiaoqi Ni, Jieping Ye,
- Abstract要約: 本稿では,大規模言語モデル(LLM)をドメイン知識グラフのためのスキル自動コンストラクタとして活用するための汎用的なKG構築フレームワークであるSAC-KGを提案する。
SAC-KGは、専門的で正確なマルチレベルKGを生成するために、LLMをドメインエキスパートとして効果的に扱う。
実験により、SAC-KGは100万以上のノードで自動的にドメインKGを構築し、89.32%の精度を達成することが示された。
- 参考スコア(独自算出の注目度): 32.93944146681218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) play a pivotal role in knowledge-intensive tasks across specialized domains, where the acquisition of precise and dependable knowledge is crucial. However, existing KG construction methods heavily rely on human intervention to attain qualified KGs, which severely hinders the practical applicability in real-world scenarios. To address this challenge, we propose a general KG construction framework, named SAC-KG, to exploit large language models (LLMs) as Skilled Automatic Constructors for domain Knowledge Graph. SAC-KG effectively involves LLMs as domain experts to generate specialized and precise multi-level KGs. Specifically, SAC-KG consists of three components: Generator, Verifier, and Pruner. For a given entity, Generator produces its relations and tails from raw domain corpora, to construct a specialized single-level KG. Verifier and Pruner then work together to ensure precision by correcting generation errors and determining whether newly produced tails require further iteration for the next-level KG.Experiments demonstrate that SAC-KG automatically constructs a domain KG at the scale of over one million nodes and achieves a precision of 89.32%, leading to a superior performance with over 20% increase in precision rate compared to existing state-of-the-art methods for the KG construction task.
- Abstract(参考訳): 知識グラフ(KG)は、正確で信頼性の高い知識の獲得が不可欠である専門分野において、知識集約的なタスクにおいて重要な役割を担っている。
しかし、既存のKG構築手法は人間の介入に大きく依存しており、現実のシナリオにおける実践的適用性を著しく妨げている。
この課題に対処するため、我々はSAC-KGと呼ばれる一般的なKG構築フレームワークを提案し、大規模言語モデル(LLM)をドメイン知識グラフのためのスキル自動コンストラクタとして活用する。
SAC-KGは、専門的で正確なマルチレベルKGを生成するために、LLMをドメインエキスパートとして効果的に扱う。
具体的には、SAC-KGは、Generator、Verifier、Prunerの3つのコンポーネントで構成される。
与えられたエンティティに対して、Generatorはその関係とテールを生のドメインコーパスから生成し、特殊な単一レベルKGを構築する。
実験では、SAC-KGが100万以上のノードのスケールでドメインKGを自動構築し、89.32%の精度を達成し、既存のKG構築タスクと比べて20%以上精度が向上した。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graphusion: A RAG Framework for Knowledge Graph Construction with a Global Perspective [13.905336639352404]
この研究は、無料テキストからゼロショットの知識グラフフレームワークであるGraphusionを導入している。
ステップ1では、トピックモデリングを用いてシードエンティティのリストを抽出し、最終KGに最も関連性の高いエンティティを導く。
ステップ2ではLSMを用いて候補三重項抽出を行い、ステップ3では抽出した知識のグローバルなビューを提供する新しい融合モジュールを設計する。
論文 参考訳(メタデータ) (2024-10-23T06:54:03Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs are not Created Equal: Exploring the Properties and
Structure of Real KGs [2.28438857884398]
多様な領域から得られた29個の実知識グラフデータセットを解析し,その特性と構造パターンを解析する。
我々は、KGsに含まれる豊富な構造情報は、フィールド全体にわたるより良いKGモデルの開発に役立つと考えている。
論文 参考訳(メタデータ) (2023-11-10T22:18:09Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Construction of Knowledge Graphs: State and Challenges [2.245333517888782]
本稿では,知識グラフ(KG)の主要グラフモデルについて論じ,今後のKG構築パイプラインの要件について紹介する。
次に、メタデータ管理などの横断的なトピックを含む高品質なKGを構築するために必要な手順の概要を紹介する。
我々は、KG構築技術の現状を評価するとともに、KG構築のための最近のツールや戦略と同様に、特定の人気KGに対して導入された要件について評価する。
論文 参考訳(メタデータ) (2023-02-22T17:26:03Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。