論文の概要: Inter-Passage Verification for Multi-evidence Multi-answer QA
- arxiv url: http://arxiv.org/abs/2506.00425v1
- Date: Sat, 31 May 2025 07:03:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.638448
- Title: Inter-Passage Verification for Multi-evidence Multi-answer QA
- Title(参考訳): マルチ・エビデンス・マルチ・アンサーQAにおけるPassage間検証
- Authors: Bingsen Chen, Shengjie Wang, Xi Ye, Chen Zhao,
- Abstract要約: 本稿では,新たな複数問合せ型QAフレームワークを提案する。
本フレームワークは,各パスを個別に処理し,初期ハイリコールでノイズの多い応答セットを生成する。
我々のフレームワークは、様々なモデルサイズで既存のベースラインを著しく上回り、平均的なF1スコアは11.17%向上した。
- 参考スコア(独自算出の注目度): 22.233409308846067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-answer question answering (QA), where questions can have many valid answers, presents a significant challenge for existing retrieval-augmented generation-based QA systems, as these systems struggle to retrieve and then synthesize a large number of evidence passages. To tackle these challenges, we propose a new multi-answer QA framework -- Retrieval-augmented Independent Reading with Inter-passage Verification (RI$^2$VER). Our framework retrieves a large set of passages and processes each passage individually to generate an initial high-recall but noisy answer set. Then we propose a new inter-passage verification pipeline that validates every candidate answer through (1) Verification Question Generation, (2) Gathering Additional Evidence, and (3) Verification with inter-passage synthesis. Evaluations on the QAMPARI and RoMQA datasets demonstrate that our framework significantly outperforms existing baselines across various model sizes, achieving an average F1 score improvement of 11.17%. Further analysis validates that our inter-passage verification pipeline enables our framework to be particularly beneficial for questions requiring multi-evidence synthesis.
- Abstract(参考訳): QA(Multi-Awer Question answering)は、質問に有効な回答が多数存在するが、既存の検索強化世代ベースのQAシステムでは、これらのシステムが検索に苦慮し、多くのエビデンスパスを合成する上で大きな課題となる。
これらの課題に対処するため、我々は新たな多解QAフレームワーク - Retrieval-augmented Independent Reading with Inter-passage Verification (RI$^2$VER)を提案する。
本フレームワークは,各パスを個別に処理し,初期ハイリコールでノイズの多い応答セットを生成する。
そこで我々は,(1)検証質問生成,(2)追加証拠の収集,(3)パス間合成による検証を通じて,すべての候補回答を検証する,新たなパス間検証パイプラインを提案する。
QAMPARIとRoMQAデータセットの評価は、我々のフレームワークが既存のベースラインを様々なモデルサイズで大幅に上回り、平均F1スコアは11.17%向上したことを示している。
さらなる分析により、我々のパス間検証パイプラインは、多値合成を必要とする問題に対して、我々のフレームワークが特に有益であることを示す。
関連論文リスト
- Beyond Retrieval: Joint Supervision and Multimodal Document Ranking for Textbook Question Answering [3.6799953119508735]
本稿では,意味表現を拡張化するためのメカニズムを導入することで,マルチモーダルな教科書質問応答手法を提案する。
我々のモデルであるJETRTQA(Joint Embedding Training With Ranking Supervision for Textbook Question Answering)は、検索ジェネレータアーキテクチャ上に構築されたマルチモーダル学習フレームワークである。
本手法をCK12-QAデータセット上で評価し,情報化文書と無関係文書の識別を著しく改善することを示す。
論文 参考訳(メタデータ) (2025-05-17T13:23:54Z) - MHTS: Multi-Hop Tree Structure Framework for Generating Difficulty-Controllable QA Datasets for RAG Evaluation [5.525151548786079]
既存のRAGベンチマークはクエリの難しさを見落とし、単純な質問や信頼性の低い評価でパフォーマンスが膨らむ。
MHTS(Multi-Hop Tree Structure)は、マルチホップツリー構造を利用して、論理的に連結されたマルチチャンククエリを生成することで、マルチホップ推論の複雑さを制御する新しいデータセット合成フレームワークである。
論文 参考訳(メタデータ) (2025-03-29T06:26:01Z) - Federated Retrieval Augmented Generation for Multi-Product Question Answering [15.250046972086164]
MKP-QA(MKP-QA)は、ドメイン間の確率的フェデレーション検索と関連する知識を備えた、新しい多産物知識強化QAフレームワークである。
実験の結果,MKP-QAは検索精度と応答品質の両面で,多成分RAG-QA性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-25T00:22:27Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - HiQA: A Hierarchical Contextual Augmentation RAG for Multi-Documents QA [13.000411428297813]
コンテンツにカスケードメタデータと複数ルート検索機構を統合した,高度な多文書質問応答(MDQA)フレームワークであるHiQAを提案する。
また、MDQAの評価と研究を行うMasQAというベンチマークもリリースしました。
論文 参考訳(メタデータ) (2024-02-01T02:24:15Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Decomposing Complex Questions Makes Multi-Hop QA Easier and More
Interpretable [25.676852169835833]
マルチホップQAでは、機械が複数の手がかりと推論を見つけることで複雑な質問に答える必要がある。
本稿では,複雑な質問分解に基づく3段階のフレームワークであるRelation Extractor-Reader and Comparator(RERC)を提案する。
2WikiMultiHopQAデータセットでは、我々のRERCモデルは最も高度なパフォーマンスを達成し、勝利した合同F1スコアはリーダーボード上で53.58である。
論文 参考訳(メタデータ) (2021-10-26T08:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。