論文の概要: iQUEST: An Iterative Question-Guided Framework for Knowledge Base Question Answering
- arxiv url: http://arxiv.org/abs/2506.01784v1
- Date: Mon, 02 Jun 2025 15:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.582942
- Title: iQUEST: An Iterative Question-Guided Framework for Knowledge Base Question Answering
- Title(参考訳): iQUEST:知識ベース質問回答のための反復的質問ガイドフレームワーク
- Authors: Shuai Wang, Yinan Yu,
- Abstract要約: iQUESTは、複雑なクエリを単純なサブクエリに繰り返し分解する質問誘導KBQAフレームワークである。
グラフニューラルネットワーク(GNN)を統合して、各推論ステップに2ホップ隣の情報を組み込む。
- 参考スコア(独自算出の注目度): 6.4524748618007415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) excel at many natural language processing tasks, they often suffer from factual inaccuracies in knowledge-intensive scenarios. Integrating external knowledge resources, particularly knowledge graphs (KGs), provides a transparent and updatable foundation for more reliable reasoning. Knowledge Base Question Answering (KBQA), which queries and reasons over KGs, is central to this effort, especially for complex, multi-hop queries. However, multi-hop reasoning poses two key challenges: (1)~maintaining coherent reasoning paths, and (2)~avoiding prematurely discarding critical multi-hop connections. To address these issues, we introduce iQUEST, a question-guided KBQA framework that iteratively decomposes complex queries into simpler sub-questions, ensuring a structured and focused reasoning trajectory. Additionally, we integrate a Graph Neural Network (GNN) to look ahead and incorporate 2-hop neighbor information at each reasoning step. This dual approach strengthens the reasoning process, enabling the model to explore viable paths more effectively. Detailed experiments demonstrate the consistent improvement delivered by iQUEST across four benchmark datasets and four LLMs.
- Abstract(参考訳): 大きな言語モデル(LLM)は多くの自然言語処理タスクに優れていますが、知識集約的なシナリオにおける事実的不正確さに悩まされることが少なくありません。
外部知識リソース、特に知識グラフ(KG)の統合は、より信頼性の高い推論のための透明で高機能な基盤を提供する。
知識ベース質問回答(KBQA, Knowledge Base Question Answering)は、特に複雑なマルチホップクエリにおいて、KGに対してクエリと理由を問う。
しかし、マルチホップ推論には、(1)コヒーレントな推論経路の維持と(2)クリティカルなマルチホップ接続を早期に破棄することの2つの重要な課題がある。
これらの問題に対処するために、複雑なクエリをより単純なサブクエストに繰り返し分解し、構造化され、焦点を絞った推論路を確実にする質問誘導KBQAフレームワークであるiQUESTを紹介した。
さらに、グラフニューラルネットワーク(GNN)を統合して、各推論ステップに2ホップ隣の情報を組み込む。
この二重アプローチは推論プロセスを強化し、モデルがより効果的に実行可能な経路を探索できるようにする。
詳細な実験では、4つのベンチマークデータセットと4つのLLMにわたるiQUESTによる一貫した改善が示されている。
関連論文リスト
- Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - BeamAggR: Beam Aggregation Reasoning over Multi-source Knowledge for Multi-hop Question Answering [29.442468366125986]
本研究では,知識集約型マルチホップQAの推論フレームワークであるBeamAggRを提案する。
複雑な質問を木に解析し、これには原子や複合的な質問が含まれる。
原子的問題に対して、LLMは答え候補を得るためにマルチソースの知識を推論する。
複合的な問題に対して、LLMはビーム候補を結合し、確率的集約を通じて複数の推論経路を探索し、最も有望な軌道を優先する。
論文 参考訳(メタデータ) (2024-06-28T10:53:48Z) - Hierarchical Deconstruction of LLM Reasoning: A Graph-Based Framework for Analyzing Knowledge Utilization [30.349165483935682]
大規模言語モデル(LLM)が推論の知識をどのように利用するのかは、まだよく分かっていない。
我々は,DepthQAデータセットを開発し,質問を3つの深さに分解する: (i)概念的知識の想起, (ii)手続き的知識の適用, (iii)戦略的知識の分析。
差分パターンは、モデルのキャパシティとトレーニングデータ記憶の可能性にまたがって観察される。
論文 参考訳(メタデータ) (2024-06-27T19:29:36Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。