論文の概要: Beyond Chains: Bridging Large Language Models and Knowledge Bases in Complex Question Answering
- arxiv url: http://arxiv.org/abs/2505.14099v1
- Date: Tue, 20 May 2025 09:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.950525
- Title: Beyond Chains: Bridging Large Language Models and Knowledge Bases in Complex Question Answering
- Title(参考訳): Beyond Chains: 複雑な質問回答で大規模言語モデルと知識ベースをブリッジする
- Authors: Yihua Zhu, Qianying Liu, Akiko Aizawa, Hidetoshi Shimodaira,
- Abstract要約: Knowledge Base Question Answering (KBQA)は、KBから構造化された知識を用いて自然言語の質問に答えることを目的としている。
PDRR:Predict, Decompose, Retrieve, Reasonからなる4段階のフレームワークを提案する。
提案手法はまず質問タイプを予測し,その質問を構造化三重項に分解する。その後,KBから関連情報を検索し,LSMをエージェントとして案内し,三重項を推論し,完成させる。
- 参考スコア(独自算出の注目度): 28.898509577087516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Base Question Answering (KBQA) aims to answer natural language questions using structured knowledge from KBs. While LLM-only approaches offer generalization, they suffer from outdated knowledge, hallucinations, and lack of transparency. Chain-based KG-RAG methods address these issues by incorporating external KBs, but are limited to simple chain-structured questions due to the absence of planning and logical structuring. Inspired by semantic parsing methods, we propose PDRR: a four-stage framework consisting of Predict, Decompose, Retrieve, and Reason. Our method first predicts the question type and decomposes the question into structured triples. Then retrieves relevant information from KBs and guides the LLM as an agent to reason over and complete the decomposed triples. Experimental results demonstrate that PDRR consistently outperforms existing methods across various LLM backbones and achieves superior performance on both chain-structured and non-chain complex questions.
- Abstract(参考訳): Knowledge Base Question Answering (KBQA) は、KBから構造化された知識を用いて自然言語の質問に答えることを目的としている。
LLMのみのアプローチは一般化を提供するが、それらは時代遅れの知識、幻覚、透明性の欠如に悩まされている。
チェーンベースのKG-RAG法は、外部KBを組み込むことでこれらの問題に対処するが、計画や論理構造が欠如しているため、単純なチェーン構造の問題に限られる。
意味解析法に着想を得たPDRR:Predict, Decompose, Retrieve, Reasonからなる4段階のフレームワークを提案する。
提案手法はまず質問タイプを予測し,その質問を構造化三重項に分解する。
その後、KBから関連情報を検索し、LSMをエージェントとして誘導し、分解された三重項を推論し完了させる。
実験の結果,PDRR は様々な LLM バックボーンの既存手法より一貫して優れており,チェーン構造および非チェーン複素問題において優れた性能を発揮することが示された。
関連論文リスト
- keqing: knowledge-based question answering is a nature chain-of-thought
mentor of LLM [27.76205400533089]
大規模言語モデル(LLM)は様々な自然言語処理(NLP)タスク、特に質問応答において顕著な性能を示した。
本稿では,知識グラフ上の質問関連構造化情報を取得するために,ChatGPTなどのLLMを支援する新しいフレームワークを提案する。
KBQAデータセットの実験結果から,Keqingは競合性能を達成でき,各質問に答える論理を説明できることがわかった。
論文 参考訳(メタデータ) (2023-12-31T08:39:04Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Reasoning over Hierarchical Question Decomposition Tree for Explainable
Question Answering [83.74210749046551]
ヘテロジニアス知識統合のための質問分解手法を提案する。
階層的質問分解木(RoHT)を用いた新しい2段階XQAフレームワークを提案する。
複雑なQAデータセットKQA ProとMusiqueの実験は、我々のフレームワークがSOTAメソッドを著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-05-24T11:45:59Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。