論文の概要: RVR: Retrieve-Verify-Retrieve for Comprehensive Question Answering
- arxiv url: http://arxiv.org/abs/2602.18425v1
- Date: Fri, 20 Feb 2026 18:48:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.41698
- Title: RVR: Retrieve-Verify-Retrieve for Comprehensive Question Answering
- Title(参考訳): RVR: 総合的な質問応答のための検索-検証-検索
- Authors: Deniz Qian, Hung-Ting Chen, Eunsol Choi,
- Abstract要約: retrieve-verify-retrieve (RVR)は、回答カバレッジを最大化するために設計されたマルチラウンド検索フレームワークである。
本研究は,検証手法を応用し,新たな推論シナリオに適応する,包括的回答リコールのための,有望な反復的アプローチを提案する。
- 参考スコア(独自算出の注目度): 32.83942046822049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Comprehensively retrieving diverse documents is crucial to address queries that admit a wide range of valid answers. We introduce retrieve-verify-retrieve (RVR), a multi-round retrieval framework designed to maximize answer coverage. Initially, a retriever takes the original query and returns a candidate document set, followed by a verifier that identifies a high-quality subset. For subsequent rounds, the query is augmented with previously verified documents to uncover answers that are not yet covered in previous rounds. RVR is effective even with off-the-shelf retrievers, and fine-tuning retrievers for our inference procedure brings further gains. Our method outperforms baselines, including agentic search approaches, achieving at least 10% relative and 3% absolute gain in complete recall percentage on a multi-answer retrieval dataset (QAMPARI). We also see consistent gains on two out-of-domain datasets (QUEST and WebQuestionsSP) across different base retrievers. Our work presents a promising iterative approach for comprehensive answer recall leveraging a verifier and adapting retrievers to a new inference scenario.
- Abstract(参考訳): 多様なドキュメントを網羅的に検索することは、広範囲の有効な回答を受け入れるクエリに対処するために不可欠である。
本稿では,回答カバレッジを最大化するための多ラウンド検索フレームワークであるrecovery-verify-retrieve(RVR)を紹介する。
最初は、検索者が元のクエリを受け取り、候補文書セットを返し、次に高品質なサブセットを識別する検証器が続く。
その後のラウンドでは、クエリは以前確認されたドキュメントで拡張され、まだ前のラウンドでカバーされていない回答が明らかになった。
RVRは市販のレトリバーでも有効であり、推論手順のための微調整レトリバーはさらなる利益をもたらす。
提案手法は, エージェント探索手法を含むベースラインを上回り, 複数回答検索データセット(QAMPARI)において, 少なくとも10%の相対性, 3%の絶対ゲインを達成する。
また、異なるベースレトリバー間で2つのドメイン外のデータセット(QUESTとWebQuestionsSP)に一貫したゲインが見られます。
本研究は,検証手法を応用し,新たな推論シナリオに適応する,包括的回答リコールのための,有望な反復的アプローチを提案する。
関連論文リスト
- Agentic-R: Learning to Retrieve for Agentic Search [82.43426728778418]
エージェント検索に適した新しい検索学習フレームワークを提案する。
単一ターン検索拡張生成(RAG)用に設計された検索器とは違って,局所的なクエリ・パスの関連性とグローバルな回答の正当性を両立することを提案する。
我々のレトリバーは、我々のものとよばれ、異なる検索エージェント間で強いベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2026-01-17T02:59:54Z) - Query Decomposition for RAG: Balancing Exploration-Exploitation [83.79639293409802]
RAGシステムは複雑なユーザ要求に対処し、それらをサブクエリに分解し、それぞれに関連する可能性のあるドキュメントを取得し、それを集約して回答を生成する。
クエリの分解とドキュメントの検索をエクスプロレーション探索設定で定式化し、一度に1つのドキュメントを検索すると、与えられたサブクエリの有用性についての信念が構築される。
我々の主な発見は、ランク情報と人的判断を用いた文書関連性の推定により、文書レベルの精度が35%向上し、α-nDCGが15%向上し、長文生成の下流タスクの性能が向上するということである。
論文 参考訳(メタデータ) (2025-10-21T13:37:11Z) - ReSCORE: Label-free Iterative Retriever Training for Multi-hop Question Answering with Relevance-Consistency Supervision [23.80886911344813]
マルチホップ質問の回答には、複雑な質問に答えるために複数のドキュメントをまたがる推論が含まれる。
センスレトリバーは通常、セマンティック埋め込みを利用してBM25のようなスパースメソッドより優れている。
ReSCOREはラベル付き文書を使わずにMHQAの高密度検索を訓練するための新しい手法である。
論文 参考訳(メタデータ) (2025-05-27T14:28:24Z) - Retrieval-Augmented Visual Question Answering via Built-in Autoregressive Search Engines [17.803396998387665]
Retrieval-augmented Generation (RAG)は、知識集約型視覚質問応答(VQA)タスクに対処するために登場した。
本稿では,知識に基づくVQAタスクに対する従来のRAGモデルの代替としてReAuSEを提案する。
我々のモデルは生成型検索器と正確な回答生成器の両方として機能する。
論文 参考訳(メタデータ) (2025-02-23T16:39:39Z) - EfficientRAG: Efficient Retriever for Multi-Hop Question Answering [52.64500643247252]
マルチホップ質問応答のための効率的な検索器であるEfficientRAGを紹介する。
実験の結果、EfficientRAGは3つのオープンドメインのマルチホップ質問応答データセット上で既存のRAG手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-08-08T06:57:49Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - End-to-End Training of Multi-Document Reader and Retriever for
Open-Domain Question Answering [36.80395759543162]
本稿では,検索拡張されたオープンドメイン質問応答システムに対するエンドツーエンドの差別化学習手法を提案する。
我々は,検索決定を関連文書の集合よりも遅延変数としてモデル化する。
提案手法は,一致点の精度を2~3%向上させる。
論文 参考訳(メタデータ) (2021-06-09T19:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。