論文の概要: Enhancing Large Language Models with Reward-guided Tree Search for Knowledge Graph Question and Answering
- arxiv url: http://arxiv.org/abs/2505.12476v1
- Date: Sun, 18 May 2025 15:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.257381
- Title: Enhancing Large Language Models with Reward-guided Tree Search for Knowledge Graph Question and Answering
- Title(参考訳): 知識グラフ質問と回答のための逆誘導木探索による大規模言語モデルの強化
- Authors: Xiao Long, Liansheng Zhuang, Chen Shen, Shaotian Yan, Yifei Li, Shafei Wang,
- Abstract要約: 大規模言語モデル(LLM)は、知識グラフ質問回答(KGQA)タスクにおいて素晴らしいパフォーマンスを示している。
本稿では、RTSoG(Reward-guided Tree Search on Graph)と呼ばれる、KGQAタスクのための新しい学習不要フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.449873147110516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large language models (LLMs) have demonstrated impressive performance in Knowledge Graph Question Answering (KGQA) tasks, which aim to find answers based on knowledge graphs (KGs) for natural language questions. Existing LLMs-based KGQA methods typically follow the Graph Retrieval-Augmented Generation (GraphRAG) paradigm, which first retrieves reasoning paths from the large KGs, and then generates the answers based on them. However, these methods emphasize the exploration of new optimal reasoning paths in KGs while ignoring the exploitation of historical reasoning paths, which may lead to sub-optimal reasoning paths. Additionally, the complex semantics contained in questions may lead to the retrieval of inaccurate reasoning paths. To address these issues, this paper proposes a novel and training-free framework for KGQA tasks called Reward-guided Tree Search on Graph (RTSoG). RTSoG decomposes an original question into a series of simpler and well-defined sub-questions to handle the complex semantics. Then, a Self-Critic Monte Carlo Tree Search (SC-MCTS) guided by a reward model is introduced to iteratively retrieve weighted reasoning paths as contextual knowledge. Finally, it stacks the weighted reasoning paths according to their weights to generate the final answers. Extensive experiments on four datasets demonstrate the effectiveness of RTSoG. Notably, it achieves 8.7\% and 7.0\% performance improvement over the state-of-the-art method on the GrailQA and the WebQSP respectively.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) は,知識グラフ質問回答 (KGQA) タスクにおいて,自然言語質問に対する知識グラフ (KGs) に基づく回答の探索を目的とした顕著なパフォーマンスを実証している。
既存の LLM ベースの KGQA メソッドは、通常、Graph Retrieval-Augmented Generation (GraphRAG) パラダイムに従っている。
しかし, これらの手法は, 歴史的推論経路の活用を無視しつつ, KGsにおける新たな最適推論経路の探索を強調する。
さらに、質問に含まれる複雑な意味論は、不正確な推論経路の検索につながる可能性がある。
このような問題に対処するため,本稿では,RTSoG (Reward-guided Tree Search on Graph) と呼ばれる,KGQAタスクの新規かつトレーニング不要なフレームワークを提案する。
RTSoGは、元の質問を、複雑な意味論を扱うために、より単純で明確に定義された一連のサブクエストに分解する。
次に、報酬モデルによって導かれる自己批判モンテカルロ木探索(SC-MCTS)を導入し、文脈知識として重み付けされた推論経路を反復的に検索する。
最後に、重み付けされた推論経路を重み付けし、最終的な答えを生成する。
4つのデータセットに対する大規模な実験は、RTSoGの有効性を示す。
特に、GrailQA と WebQSP の最先端メソッドに対して、それぞれ 8.7 % と 7.0 % の性能改善を実現している。
関連論文リスト
- GraphRAFT: Retrieval Augmented Fine-Tuning for Knowledge Graphs on Graph Databases [0.0]
GraphRAFTは、LCMを微調整して、確実に正しいCypherクエリを生成する、検索と推論のためのフレームワークである。
本手法は,自然グラフDBに格納された知識グラフを用いて,棚から取り出すことができる最初の方法である。
論文 参考訳(メタデータ) (2025-04-07T20:16:22Z) - EPERM: An Evidence Path Enhanced Reasoning Model for Knowledge Graph Question and Answering [3.1099372412393524]
本稿では、KGQA問題をグラフィカルモデルとして再検討し、KGQAのためのEvidence Path Enhanced Reasoning Model(EPERM)という3段階のフレームワークを提案する。
最初の段階では、EPERMは微調整されたLarge言語モデルを使用して、元の知識グラフから質問に関連するサブグラフを検索する。
第2段階では、EPERMは、質問の推論を忠実に支持するエビデンスパスをフィルタリングし、推論における重要性を評価する。
論文 参考訳(メタデータ) (2025-02-22T10:05:22Z) - Ontology-Guided Reverse Thinking Makes Large Language Models Stronger on Knowledge Graph Question Answering [24.821273655754222]
Ontology-Guided Reverse Thinking (ORT)は、目的から条件への推論パスを構築する新しいフレームワークである。
ORT は,(1) LLM を用いて目的ラベルと条件ラベルを抽出し,(2) KG オントロジーに基づくラベル推論経路を構築し,(3) ラベル推論経路を用いて知識検索を行う。
WebQSPとCWQデータセットの実験は、ORTが最先端のパフォーマンスを達成し、KGQAのためのLLMの能力を大幅に向上することを示している。
論文 参考訳(メタデータ) (2025-02-17T06:53:15Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Graph Reasoning for Question Answering with Triplet Retrieval [33.454090126152714]
知識グラフ(KGs)から最も関連性の高い三つ子を抽出する簡便で効果的な方法を提案する。
我々の手法は最先端の精度を4.6%まで上回ることができる。
論文 参考訳(メタデータ) (2023-05-30T04:46:28Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。