論文の概要: Rethinking the Reranker: Boundary-Aware Evidence Selection for Robust Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2602.03689v1
- Date: Tue, 03 Feb 2026 16:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.56375
- Title: Rethinking the Reranker: Boundary-Aware Evidence Selection for Robust Retrieval-Augmented Generation
- Title(参考訳): リランカの再考:ロバスト検索型世代における境界認識証拠の選択
- Authors: Jiashuo Sun, Pengcheng Jiang, Saizhuo Wang, Jiajun Fan, Heng Wang, Siru Ouyang, Ming Zhong, Yizhu Jiao, Chengsong Huang, Xueqiang Xu, Pengrui Han, Peiran Li, Jiaxin Huang, Ge Liu, Heng Ji, Jiawei Han,
- Abstract要約: Retrieval-Augmented Generation (RAG) システムは、現実的な検索ノイズの下でも不安定である。
そこで我々は,BAR-RAGを提案する。このBAR-RAGは,発電機のGoldilocks Zoneをターゲットとした境界認識型エビデンスセレクタである。
Bar-RAGはノイズ検索において、エンドツーエンドのパフォーマンスを一貫して改善する。
- 参考スコア(独自算出の注目度): 64.09110141948693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems remain brittle under realistic retrieval noise, even when the required evidence appears in the top-K results. A key reason is that retrievers and rerankers optimize solely for relevance, often selecting either trivial, answer-revealing passages or evidence that lacks the critical information required to answer the question, without considering whether the evidence is suitable for the generator. We propose BAR-RAG, which reframes the reranker as a boundary-aware evidence selector that targets the generator's Goldilocks Zone -- evidence that is neither trivially easy nor fundamentally unanswerable for the generator, but is challenging yet sufficient for inference and thus provides the strongest learning signal. BAR-RAG trains the selector with reinforcement learning using generator feedback, and adopts a two-stage pipeline that fine-tunes the generator under the induced evidence distribution to mitigate the distribution mismatch between training and inference. Experiments on knowledge-intensive question answering benchmarks show that BAR-RAG consistently improves end-to-end performance under noisy retrieval, achieving an average gain of 10.3 percent over strong RAG and reranking baselines while substantially improving robustness. Code is publicly avaliable at https://github.com/GasolSun36/BAR-RAG.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、Top-Kの結果に必要証拠が現れる場合でも、現実的な検索ノイズの下でも不安定である。
重要な理由は、レトリバーとリランカーが単に関連性のためだけに最適化し、しばしば、証拠が発電機に適しているかどうかを考慮せずに、質問に答えるために必要な重要な情報が欠如している、自明で、回答を拒否する通路または証拠を選択することである。
BAR-RAGは,発電機のゴールディロックスゾーンを狙う境界認識型エビデンスセレクタとして再編成され,ジェネレータにとって自明に簡単でも根本的には理解できないが,推論には十分であり,かつ最強の学習信号を提供する。
BAR-RAGは、ジェネレータフィードバックを用いた強化学習でセレクタを訓練し、誘導エビデンス分布下でジェネレータを微調整する2段階パイプラインを採用して、トレーニングと推論間の分布ミスマッチを軽減する。
知識集約型質問応答ベンチマークの実験により、BAR-RAGはノイズ検索におけるエンドツーエンドのパフォーマンスを一貫して改善し、強いRAGよりも平均10.3%向上し、ベースラインを再ランクし、ロバスト性を大幅に向上することが示された。
コードはhttps://github.com/GasolSun36/BAR-RAGで公開されている。
関連論文リスト
- From Verifiable Dot to Reward Chain: Harnessing Verifiable Reference-based Rewards for Reinforcement Learning of Open-ended Generation [52.62655622099456]
検証基準ベース報酬(RLVRR)を用いた強化学習を提案する。
最後の答えをチェックする代わりに、RLVRRは高品質な参照(すなわち報酬連鎖)から順序付けられた言語信号を抽出する。
このようにして、RLVRRは報酬を2つの次元に分解する。
論文 参考訳(メタデータ) (2026-01-26T14:39:58Z) - PruneRAG: Confidence-Guided Query Decomposition Trees for Efficient Retrieval-Augmented Generation [19.832367438725306]
PruneRAGは、安定かつ効率的な推論を行うために構造化されたクエリ分解ツリーを構築する。
我々は,ゴールデンエビデンスを回収するが正しく使用しない事例を定量化するための指標として,エビデンス予測率を定義した。
論文 参考訳(メタデータ) (2026-01-16T06:38:17Z) - FAIR-RAG: Faithful Adaptive Iterative Refinement for Retrieval-Augmented Generation [0.0]
本稿では、標準的なRAGパイプラインを動的にエビデンス駆動の推論プロセスに変換する新しいエージェントフレームワークであるFAIR-RAGを紹介する。
本稿では,HotpotQA,2WikiMultiHopQA,MusiQueなどのマルチホップQAベンチマーク実験を行う。
我々の研究は、高度なRAGシステムにおける信頼性と正確な推論を解き明かすためには、明確なギャップ分析による構造化されたエビデンス駆動の洗練プロセスが不可欠であることを示す。
論文 参考訳(メタデータ) (2025-10-25T15:59:33Z) - Transparent and Robust RAG: Adaptive-Reward Reinforcement Learning for Decision Traceability [15.949084214401692]
Adaptive-Rewarded Evidence Navigation Agent (ARENA)は、RLを介してトレーニングされた透明で堅牢なRAGジェネレータフレームワークである。
構造化されたプロトコル、KL分散安定化および適応報酬計算モジュールに基づいて、ARENAはRAGジェネレータが鍵証拠を識別し、構造化推論を行い、解釈可能な決定トレースで回答を生成する。
論文 参考訳(メタデータ) (2025-05-19T15:40:29Z) - Worse than Zero-shot? A Fact-Checking Dataset for Evaluating the Robustness of RAG Against Misleading Retrievals [5.605770511387228]
RAGuardは、不正検索に対するRAGシステムの堅牢性を評価する最初のベンチマークである。
合成ノイズに依存する以前のベンチマークとは異なり、ファクトチェックデータセットは自然に発生する誤報をキャプチャする。
論文 参考訳(メタデータ) (2025-02-22T05:50:15Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。