論文の概要: Reliable Reasoning Path: Distilling Effective Guidance for LLM Reasoning with Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2506.10508v1
- Date: Thu, 12 Jun 2025 09:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.668485
- Title: Reliable Reasoning Path: Distilling Effective Guidance for LLM Reasoning with Knowledge Graphs
- Title(参考訳): 信頼な推論経路:知識グラフを用いたLLM推論のための効果的なガイダンスの蒸留
- Authors: Yilin Xiao, Chuang Zhou, Qinggang Zhang, Bo Li, Qing Li, Xiao Huang,
- Abstract要約: 大規模言語モデル(LLM)は、背景知識の不足のため、知識集約的なタスクに苦しむことが多い。
知識グラフをマイニングするためのRCPフレームワークを提案する。
また、その意義に応じて推論経路を評価し、洗練する再考モジュールも導入する。
- 参考スコア(独自算出の注目度): 14.60537408321632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) often struggle with knowledge-intensive tasks due to a lack of background knowledge and a tendency to hallucinate. To address these limitations, integrating knowledge graphs (KGs) with LLMs has been intensively studied. Existing KG-enhanced LLMs focus on supplementary factual knowledge, but still struggle with solving complex questions. We argue that refining the relationships among facts and organizing them into a logically consistent reasoning path is equally important as factual knowledge itself. Despite their potential, extracting reliable reasoning paths from KGs poses the following challenges: the complexity of graph structures and the existence of multiple generated paths, making it difficult to distinguish between useful and redundant ones. To tackle these challenges, we propose the RRP framework to mine the knowledge graph, which combines the semantic strengths of LLMs with structural information obtained through relation embedding and bidirectional distribution learning. Additionally, we introduce a rethinking module that evaluates and refines reasoning paths according to their significance. Experimental results on two public datasets show that RRP achieves state-of-the-art performance compared to existing baseline methods. Moreover, RRP can be easily integrated into various LLMs to enhance their reasoning abilities in a plug-and-play manner. By generating high-quality reasoning paths tailored to specific questions, RRP distills effective guidance for LLM reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、背景知識の不足と幻覚の傾向のため、知識集約的なタスクに苦しむことが多い。
これらの制限に対処するため、知識グラフ(KG)とLLMを統合することの研究が盛んに行われている。
既存のKG-enhanced LLMは、補足的な事実知識に重点を置いているが、それでも複雑な問題の解決に苦慮している。
我々は,事実間の関係を解明し,論理的に一貫した推論経路に整理することが,事実知識そのものと同じくらい重要であると論じている。
これらの可能性にもかかわらず、KGsから信頼できる推論パスを抽出することは、グラフ構造の複雑さと複数の生成されたパスの存在という、有用かつ冗長なパスを区別することが困難である、という課題を提起する。
これらの課題に対処するために,LLMの持つ意味的強みと,関係埋め込みと双方向分布学習による構造情報を組み合わせた知識グラフのマイニングを行うRCPフレームワークを提案する。
さらに,その意義に応じて推論経路を評価・精査する再考モジュールを導入する。
2つの公開データセットの実験結果から、RCPは既存のベースライン手法と比較して最先端のパフォーマンスを達成することが示された。
さらに, RRP を様々な LLM に統合して, プラグ・アンド・プレイ方式で推論能力を向上することができる。
特定の質問に適した高品質な推論経路を生成することにより、RCPはLLM推論のための効果的なガイダンスを蒸留する。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Self-Reflective Planning with Knowledge Graphs: Enhancing LLM Reasoning Reliability for Question Answering [9.601307470705732]
本稿では,知識グラフと大規模言語モデルを相乗化するフレームワークである自己回帰計画(SRP)を提案する。
計画プロセスにおいて、SRPはまず、ガイドプランニングとリフレクションのための参照を検索する。
推論経路を介してKGから知識を検索した後、検索結果を判断し、回答が正しく検索されるまで推論経路を編集して反復反射を行う。
論文 参考訳(メタデータ) (2025-05-26T01:59:00Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。