論文の概要: DrKGC: Dynamic Subgraph Retrieval-Augmented LLMs for Knowledge Graph Completion across General and Biomedical Domains
- arxiv url: http://arxiv.org/abs/2506.00708v1
- Date: Sat, 31 May 2025 20:56:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.495519
- Title: DrKGC: Dynamic Subgraph Retrieval-Augmented LLMs for Knowledge Graph Completion across General and Biomedical Domains
- Title(参考訳): DrKGC: 一般分野および生物分野における知識グラフ補完のための動的サブグラフ検索用LLM
- Authors: Yongkang Xiao, Sinian Zhang, Yi Dai, Huixue Zhou, Jue Hou, Jie Ding, Rui Zhang,
- Abstract要約: 知識グラフ補完(KGC)は、既存の三重情報とテキスト情報を活用することにより、知識グラフ(KG)に欠落した三重情報を予測することを目的としている。
DrKGCは、KG内の構造埋め込みと論理ルールを学ぶために、フレキシブルで軽量なモデルトレーニング戦略を採用している。
そして、新しいボトムアップグラフ検索手法を利用して、学習ルールでガイドされた各クエリのサブグラフを抽出する。
- 参考スコア(独自算出の注目度): 13.63225871556018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) aims to predict missing triples in knowledge graphs (KGs) by leveraging existing triples and textual information. Recently, generative large language models (LLMs) have been increasingly employed for graph tasks. However, current approaches typically encode graph context in textual form, which fails to fully exploit the potential of LLMs for perceiving and reasoning about graph structures. To address this limitation, we propose DrKGC (Dynamic Subgraph Retrieval-Augmented LLMs for Knowledge Graph Completion). DrKGC employs a flexible lightweight model training strategy to learn structural embeddings and logical rules within the KG. It then leverages a novel bottom-up graph retrieval method to extract a subgraph for each query guided by the learned rules. Finally, a graph convolutional network (GCN) adapter uses the retrieved subgraph to enhance the structural embeddings, which are then integrated into the prompt for effective LLM fine-tuning. Experimental results on two general domain benchmark datasets and two biomedical datasets demonstrate the superior performance of DrKGC. Furthermore, a realistic case study in the biomedical domain highlights its interpretability and practical utility.
- Abstract(参考訳): 知識グラフ補完(KGC)は、既存の三重情報とテキスト情報を活用することにより、知識グラフ(KG)に欠落した三重情報を予測することを目的としている。
近年,グラフ処理にはLLM (generative large language model) が採用されている。
しかし、現在のアプローチはグラフコンテキストをテキスト形式でエンコードするのが一般的であり、グラフ構造に対する知覚と推論のためにLLMのポテンシャルを完全に活用することができない。
本稿では,DrKGC (Dynamic Subgraph Retrieval-Augmented LLMs for Knowledge Graph Completion)を提案する。
DrKGCは、KG内の構造埋め込みと論理ルールを学ぶために、フレキシブルで軽量なモデルトレーニング戦略を採用している。
そして、新しいボトムアップグラフ検索手法を利用して、学習ルールでガイドされた各クエリのサブグラフを抽出する。
最後に、グラフ畳み込みネットワーク(GCN)アダプタは、取得したサブグラフを使用して構造埋め込みを強化し、効率的なLCM微調整のためのプロンプトに統合する。
2つの一般領域ベンチマークデータセットと2つのバイオメディカルデータセットの実験結果は、DrKGCの優れた性能を示している。
さらに、バイオメディカル領域における現実的なケーススタディでは、その解釈可能性と実用性を強調している。
関連論文リスト
- Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Democratizing Large Language Model-Based Graph Data Augmentation via Latent Knowledge Graphs [22.218522445858344]
グラフデータの不足やノイズによるグラフ表現学習には,データ拡張が必要である。
我々は、LCMのガイダンスであるDemoGraphを用いて、ブラックボックスのコンテキスト駆動グラフデータ拡張手法を提案する。
本手法は,電子健康記録(EHRs)のシナリオに優れ,文脈知識の最大限活用を実証する。
論文 参考訳(メタデータ) (2025-02-19T09:00:32Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Medical Graph RAG: Towards Safe Medical Large Language Model via Graph Retrieval-Augmented Generation [9.286509119104563]
我々は、MedGraphRAGと呼ばれる医療領域向けに設計された新しいグラフベースのRetrieval-Augmented Generationフレームワークを紹介する。
提案手法は,9つの医療用Q&Aベンチマーク,2つの健康用ファクトチェックベンチマーク,および1つの収集データセットで検証した。
論文 参考訳(メタデータ) (2024-08-08T03:11:12Z) - LLaGA: Large Language and Graph Assistant [73.71990472543027]
大規模言語とグラフアシスタント(LLaGA)は、グラフ構造化データの複雑さを扱う革新的なモデルである。
LLaGAは汎用性、一般化性、解釈性に優れており、異なるデータセットやタスク間で一貫して動作する。
実験の結果,LLaGAは4つのデータセットと3つのタスクに1つの単一モデルを用いて優れた性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-13T02:03:26Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Scientific Language Models for Biomedical Knowledge Base Completion: An
Empirical Study [62.376800537374024]
我々は,KG の完成に向けた科学的 LM の研究を行い,生物医学的リンク予測を強化するために,その潜在知識を活用できるかどうかを探る。
LMモデルとKG埋め込みモデルを統合し,各入力例をいずれかのモデルに割り当てることを学ぶルータ法を用いて,性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-06-17T17:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。