論文の概要: Are Hypervectors Enough? Single-Call LLM Reasoning over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2512.09369v1
- Date: Wed, 10 Dec 2025 07:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.426108
- Title: Are Hypervectors Enough? Single-Call LLM Reasoning over Knowledge Graphs
- Title(参考訳): ハイパーベクターは十分か? 知識グラフによる単一LLM推論
- Authors: Yezi Liu, William Youngwoo Chung, Hanning Chen, Calvin Yeung, Mohsen Imani,
- Abstract要約: ニューラルパスのスコアリングを超次元計算に置き換える軽量なKG推論フレームワークであるPathHDを提案する。
PathHDはブロック対角GHRRハイパーベクターにリレーションパスをエンコードし、ブロックワイズコサインの類似性とトップKプルーニングの候補をランク付けし、ワンショットの述語を実行する。
WebQSP、CWQ、GrailQAのスプリットでは、PathHD(i)は、クエリ毎に1つのLLMコールを使用しながら、強力なニューラルネットワークベースラインよりも、Hits@1に匹敵するか、あるいは優れている。
- 参考スコア(独自算出の注目度): 13.99794289273847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) have enabled strong reasoning over both structured and unstructured knowledge. When grounded on knowledge graphs (KGs), however, prevailing pipelines rely on heavy neural encoders to embed and score symbolic paths or on repeated LLM calls to rank candidates, leading to high latency, GPU cost, and opaque decisions that hinder faithful, scalable deployment. We propose PathHD, a lightweight and encoder-free KG reasoning framework that replaces neural path scoring with hyperdimensional computing (HDC) and uses only a single LLM call per query. PathHD encodes relation paths into block-diagonal GHRR hypervectors, ranks candidates with blockwise cosine similarity and Top-K pruning, and then performs a one-shot LLM adjudication to produce the final answer together with cited supporting paths. Technically, PathHD is built on three ingredients: (i) an order-aware, non-commutative binding operator for path composition, (ii) a calibrated similarity for robust hypervector-based retrieval, and (iii) a one-shot adjudication step that preserves interpretability while eliminating per-path LLM scoring. On WebQSP, CWQ, and the GrailQA split, PathHD (i) attains comparable or better Hits@1 than strong neural baselines while using one LLM call per query; (ii) reduces end-to-end latency by $40-60\%$ and GPU memory by $3-5\times$ thanks to encoder-free retrieval; and (iii) delivers faithful, path-grounded rationales that improve error diagnosis and controllability. These results indicate that carefully designed HDC representations provide a practical substrate for efficient KG-LLM reasoning, offering a favorable accuracy-efficiency-interpretability trade-off.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、構造化知識と非構造化知識の両方に対する強力な推論を可能にしている。
しかしながら、知識グラフ(KGs)に基づく場合、一般的なパイプラインは、シンボルパスの埋め込みとスコア付け、あるいは候補のランク付けを繰り返すLCMコールに頼っているため、高レイテンシ、GPUコスト、不透明な決定によって、忠実でスケーラブルなデプロイメントを妨げている。
提案するPathHDは軽量かつエンコーダフリーなKG推論フレームワークで,ニューラルパスのスコアリングを超次元コンピューティング(HDC)に置き換える。
PathHDはブロック対角GHRRハイパーベクターにリレーションパスをエンコードし、ブロックワイズコサイン類似性とTop-Kプルーニングの候補をランク付けし、一発のLCM適応を実行し、最後の回答と引用されたサポートパスを生成する。
技術的には、PathHDは3つの材料の上に構築されている。
i) 経路合成のための順序対応非可換結合演算子
(ii)ロバストなハイパーベクターに基づく検索のための校正された類似性、及び
三 パスごとのLPMスコアを排除しつつ、解釈性を維持する一発の偏見ステップ。
WebQSP, CWQ, and the GrailQA split, PathHDについて
(i)クエリ毎に1つのLLMコールを使用しながら、強いニューラルネットワークベースラインよりも、Hits@1に匹敵する、あるいは優れたHits@1を実現する。
(ii)エンコーダフリー検索のおかげで、エンドツーエンドのレイテンシを40~60ドル、GPUメモリを3~5ドル削減する。
(iii) 誤りの診断と制御性を改善する忠実なパスグラウンドの合理性を提供する。
これらの結果は,HDC表現を慎重に設計することで,KG-LLM推論の実用的な基盤を提供し,精度・解釈可能性のトレードオフを良好に提供することを示唆している。
関連論文リスト
- PathMind: A Retrieve-Prioritize-Reason Framework for Knowledge Graph Reasoning with Large Language Models [18.868091458925928]
提案するPathMindは,LLMを重要な推論経路で選択的に導くことによって,忠実かつ解釈可能な推論を強化するためのフレームワークである。
ベンチマークデータセットに関する大規模な実験は、PathMindが一貫して競争ベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-11-18T08:45:16Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - DAMR: Efficient and Adaptive Context-Aware Knowledge Graph Question Answering with LLM-Guided MCTS [28.828541350757714]
本稿では,知識グラフ質問応答(KGQA)のための動的適応MCTSベースの推論(DAMR)を提案する。
DAMRは、MCTS(Monte Carlo Tree Search)と適応経路評価を統合し、コンテキスト対応のKGQAを実現する。
複数のKGQAベンチマークの実験では、DAMRはSOTA法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-08-01T15:38:21Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Efficient Inference for Large Language Model-based Generative Recommendation [78.38878421030522]
LLM(Large Language Model)ベースの生成レコメンデーションは目覚ましい成功を収めた。
ジェネレーティブレコメンデーションにSD(Speculative Decoding)を適用すると、トップKアイテムを生成する必要があるため、ユニークな課題が提示される。
我々は,厳密なトップK検証の下でトップKアライメントを最適化する AtSpeed-S というアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-07T16:23:36Z) - Reasoning on Efficient Knowledge Paths:Knowledge Graph Guides Large Language Model for Domain Question Answering [18.94220625114711]
大きな言語モデル(LLM)は驚くほどよく機能し、多くのタスクにおいて人間の専門家より優れています。
本稿では,LLMに基づいてKGから推論経路を選択するパイプラインを統合し,最適化する。
また,思考の連鎖(CoT)とページランクに基づく,シンプルで効果的なサブグラフ検索手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T08:28:16Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。