論文の概要: An LLM-Guided Query-Aware Inference System for GNN Models on Large Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2603.04545v1
- Date: Wed, 04 Mar 2026 19:30:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:10.946946
- Title: An LLM-Guided Query-Aware Inference System for GNN Models on Large Knowledge Graphs
- Title(参考訳): 大規模知識グラフを用いたGNNモデルのためのLLM型クエリ対応推論システム
- Authors: Waleed Afandi, Hussein Abdallah, Ashraf Aboulnaga, Essam Mansour,
- Abstract要約: 本稿では,大規模知識グラフ(KG)のためのタスク駆動推論パラダイムKG-WISEを提案する。
KG-WISEは、訓練されたGNNモデルを、クエリされたサブグラフの構造に基づいて部分的にロードできるきめ細かいコンポーネントに分解する。
推論は28倍高速で、メモリ使用量は最先端システムよりも98%少ない。
- 参考スコア(独自算出の注目度): 4.814637416425641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient inference for graph neural networks (GNNs) on large knowledge graphs (KGs) is essential for many real-world applications. GNN inference queries are computationally expensive and vary in complexity, as each involves a different number of target nodes linked to subgraphs of diverse densities and structures. Existing acceleration methods, such as pruning, quantization, and knowledge distillation, instantiate smaller models but do not adapt them to the structure or semantics of individual queries. They also store models as monolithic files that must be fully loaded, and miss the opportunity to retrieve only the neighboring nodes and corresponding model components that are semantically relevant to the target nodes. These limitations lead to excessive data loading and redundant computation on large KGs. This paper presents KG-WISE, a task-driven inference paradigm for large KGs. KG-WISE decomposes trained GNN models into fine-grained components that can be partially loaded based on the structure of the queried subgraph. It employs large language models (LLMs) to generate reusable query templates that extract semantically relevant subgraphs for each task, enabling query-aware and compact model instantiation. We evaluate KG-WISE on six large KGs with up to 42 million nodes and 166 million edges. KG-WISE achieves up to 28x faster inference and 98% lower memory usage than state-of-the-art systems while maintaining or improving accuracy across both commercial and open-weight LLMs.
- Abstract(参考訳): 大規模知識グラフ(KG)上のグラフニューラルネットワーク(GNN)の効率的な推論は多くの実世界のアプリケーションに不可欠である。
GNN推論クエリは計算コストが高く、様々な密度と構造のサブグラフにリンクするターゲットノードの数が異なるため、複雑度が異なる。
プルーニング、量子化、知識蒸留といった既存の加速法は、より小さなモデルをインスタンス化するが、個々のクエリの構造やセマンティクスには適応しない。
また、モデルを完全にロードしなければならないモノリシックなファイルとして保存し、隣接するノードとターゲットノードに意味のある対応するモデルコンポーネントのみを検索する機会を逃す。
これらの制限は、大規模なKG上での過剰なデータ読み込みと冗長な計算につながる。
本稿では,大規模KGのためのタスク駆動推論パラダイムであるKG-WISEを提案する。
KG-WISEは、訓練されたGNNモデルを、クエリされたサブグラフの構造に基づいて部分的にロードできるきめ細かいコンポーネントに分解する。
大規模な言語モデル(LLM)を使用して、タスクごとに意味的に関連するサブグラフを抽出する再利用可能なクエリテンプレートを生成し、クエリ認識とコンパクトモデルインスタンス化を可能にする。
最大4200万ノードと166万エッジを持つ6つの大きなKG上でKG-WISEを評価する。
KG-WISEは、最先端システムよりも最大28倍高速な推論と98%低いメモリ使用率を実現し、商用LLMとオープンウェイトLLMの両方で精度を維持または改善している。
関連論文リスト
- Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Multi-hop Question Answering over Knowledge Graphs using Large Language Models [1.8130068086063336]
複数のホップを含む知識グラフに答える能力(LLM)を評価する。
我々は、KGのサイズや性質によって、関連する情報をLLMに抽出し、供給するために異なるアプローチが必要であることを示す。
論文 参考訳(メタデータ) (2024-04-30T03:31:03Z) - Task-Oriented GNNs Training on Large Knowledge Graphs for Accurate and Efficient Modeling [5.460112864687281]
本稿では,大規模知識グラフ(KG)を用いたタスク指向HGNN学習におけるTOSG抽出の自動化手法であるKG-TOSAを提案する。
KG-TOSAは、最新のHGNN手法により、トレーニング時間とメモリ使用量を最大70%削減し、精度や推論時間などのモデル性能を向上させる。
論文 参考訳(メタデータ) (2024-03-09T01:17:26Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Towards a GML-Enabled Knowledge Graph Platform [0.5904265865319825]
本稿では、RDFエンジン上のサービスとして、オンデマンドグラフ機械学習(GML)であるKGNetを提案する。
KGNetはタスク固有のサブグラフを識別することで、KG上でGMLモデルのトレーニングを自動化する。
トレーニングされたモデルはすべて、SPARQLライクなクエリを通じてアクセス可能である。
論文 参考訳(メタデータ) (2023-03-03T17:41:11Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Are Message Passing Neural Networks Really Helpful for Knowledge Graph
Completion? [49.858038034580005]
単純なモデルでMPNNに匹敵する性能が得られることを示す。
評価関数と損失関数の設計がKGCモデルの性能に強い影響を与えることを示す。
論文 参考訳(メタデータ) (2022-05-21T18:14:52Z) - Sequence-to-Sequence Knowledge Graph Completion and Question Answering [8.207403859762044]
既製のエンコーダ・デコーダ変換器モデルは,スケーラブルで汎用的なKGEモデルとして機能することを示す。
我々は,KGリンク予測をシーケンス・ツー・シーケンス・タスクとして用い,従来のKGE手法による3つのスコアリングアプローチを自己回帰復号化と交換することで,これを実現する。
論文 参考訳(メタデータ) (2022-03-19T13:01:49Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。