論文の概要: PRISM: Agentic Retrieval with LLMs for Multi-Hop Question Answering
- arxiv url: http://arxiv.org/abs/2510.14278v1
- Date: Thu, 16 Oct 2025 04:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.713262
- Title: PRISM: Agentic Retrieval with LLMs for Multi-Hop Question Answering
- Title(参考訳): PRISM:マルチホップ質問応答のためのLLMを用いたエージェント検索
- Authors: Md Mahadi Hasan Nahid, Davood Rafiei,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を構造化ループで活用し,高い精度で関連する証拠を検索するエージェント検索システムを提案する。
我々のフレームワークは3つの専門的なエージェントで構成されている: マルチホップ質問をサブクエストに分解する質問アナライザ、サブクエスト毎に最も関連性の高いコンテキストを特定するセレクタ、そして、欠けている証拠をもたらすアダである。
- 参考スコア(独自算出の注目度): 10.971852280240357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval plays a central role in multi-hop question answering (QA), where answering complex questions requires gathering multiple pieces of evidence. We introduce an Agentic Retrieval System that leverages large language models (LLMs) in a structured loop to retrieve relevant evidence with high precision and recall. Our framework consists of three specialized agents: a Question Analyzer that decomposes a multi-hop question into sub-questions, a Selector that identifies the most relevant context for each sub-question (focusing on precision), and an Adder that brings in any missing evidence (focusing on recall). The iterative interaction between Selector and Adder yields a compact yet comprehensive set of supporting passages. In particular, it achieves higher retrieval accuracy while filtering out distracting content, enabling downstream QA models to surpass full-context answer accuracy while relying on significantly less irrelevant information. Experiments on four multi-hop QA benchmarks -- HotpotQA, 2WikiMultiHopQA, MuSiQue, and MultiHopRAG -- demonstrates that our approach consistently outperforms strong baselines.
- Abstract(参考訳): 検索は、複雑な質問に答えるために複数の証拠を集める必要があるマルチホップ質問応答(QA)において中心的な役割を果たす。
本稿では,大規模言語モデル(LLM)を構造化ループで活用し,高い精度で関連する証拠を検索するエージェント検索システムを提案する。
本フレームワークは,複数の質問をサブクエストに分解する質問分析装置と,各サブクエストに最も関連性の高いコンテキストを識別するセレクタと,欠落した証拠(リコールに焦点をあてるアダとから構成される。
Selector と Adder の反復的な相互作用は、コンパクトだが包括的なサポートパスの集合をもたらす。
特に、邪魔なコンテンツをフィルタリングしながら高い検索精度を達成し、ダウンストリームQAモデルでは、関連性の少ない情報に頼りながら、全文回答精度を超えることができる。
HotpotQA、2WikiMultiHopQA、MuSiQue、MultiHopRAGという4つのマルチホップQAベンチマークの実験は、我々のアプローチが強いベースラインを一貫して上回ることを示した。
関連論文リスト
- The benefits of query-based KGQA systems for complex and temporal questions in LLM era [55.20230501807337]
大規模言語モデルは質問回答(QA)に優れていますが、マルチホップ推論や時間的質問には苦戦しています。
クエリベースの知識グラフ QA (KGQA) は、直接回答の代わりに実行可能なクエリを生成するモジュール形式の代替手段を提供する。
WikiData QAのためのマルチステージクエリベースのフレームワークについて検討し、課題のあるマルチホップと時間ベンチマークのパフォーマンスを向上させるマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-16T06:41:03Z) - Optimizing Question Semantic Space for Dynamic Retrieval-Augmented Multi-hop Question Answering [28.09833765246606]
Q-DREAMは,(1)質問分解モジュール (QDM) と(2)質問依存モジュール (SDOM) の3つの主要なモジュールから構成される。
様々なベンチマーク実験の結果、Q-DREAMは既存のRAGメソッドよりも大幅に優れており、ドメイン内およびドメイン外の両方で最先端の性能を実現している。
論文 参考訳(メタデータ) (2025-05-31T09:57:07Z) - GenDec: A robust generative Question-decomposition method for Multi-hop
reasoning [32.12904215053187]
マルチホップQAには、複雑な質問に答えるステップバイステップの推論が含まれる。
マルチホップ質問応答における既存の大規模言語モデル(LLM)推論能力は現在も探索が続けられている。
LLMが正しい結論に達するために望ましい推論連鎖に従うかどうかは不明である。
論文 参考訳(メタデータ) (2024-02-17T02:21:44Z) - End-to-End Beam Retrieval for Multi-Hop Question Answering [37.13580394608824]
マルチホップ質問応答は、複数の関連するパスを見つけ出し、複雑な質問に答えるためにステップバイステップの推論を行う。
以前のレトリバーは2ホップの質問のためにカスタマイズされ、そのほとんどは異なるホップで個別に訓練された。
マルチホップQAのためのエンドツーエンドのビーム検索フレームワークであるビーム検索について紹介する。
論文 参考訳(メタデータ) (2023-08-17T13:24:14Z) - Understanding and Improving Zero-shot Multi-hop Reasoning in Generative
Question Answering [85.79940770146557]
マルチホップ質問を複数の単一ホップ質問に分解する。
これらの対の見かけ上同一の問合せ連鎖について、QAモデルの答えに顕著な矛盾が認められる。
シングルホップの質問だけを訓練すると、モデルはマルチホップの質問に対してあまり一般化しない。
論文 参考訳(メタデータ) (2022-10-09T11:48:07Z) - Prompt-based Conservation Learning for Multi-hop Question Answering [11.516763652013005]
マルチホップ質問応答には、複雑な質問に答えるために複数の文書を推論する必要がある。
既存のマルチホップQAメソッドの多くは、サブクエストのかなりの部分に答えられません。
マルチホップQAのためのPromptベースの保存学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T20:50:46Z) - Few-shot Reranking for Multi-hop QA via Language Model Prompting [56.454088569241534]
オープンドメイン質問を用いたマルチホップQAにおける数点のリランクについて検討した。
本稿では,マルチホップパスの再ランク付けを促す大規模言語モデルに依存するPromptRankを提案する。
PromptRankは、HotpotQA上で128のトレーニング例で強力な検索性能を得る。
論文 参考訳(メタデータ) (2022-05-25T10:45:55Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Ask to Understand: Question Generation for Multi-hop Question Answering [11.626390908264872]
マルチホップ質問回答 (Multi-hop Question Answering, QA) は、複数の文書から散乱した手がかりを見つけ、推論することで複雑な質問に答えることを要求する。
質問生成(QG)の観点から,マルチホップQAを補完する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T04:02:29Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。