論文の概要: Less is More for RAG: Information Gain Pruning for Generator-Aligned Reranking and Evidence Selection
- arxiv url: http://arxiv.org/abs/2601.17532v1
- Date: Sat, 24 Jan 2026 17:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.906322
- Title: Less is More for RAG: Information Gain Pruning for Generator-Aligned Reranking and Evidence Selection
- Title(参考訳): RAGのさらなる進歩: 電源調整されたリグレードとエビデンスの選択のための情報ゲイン・プルーニング
- Authors: Zhipeng Song, Yizhi Zhou, Xiangyu Kong, Jiulong Jiao, Xinrui Bao, Xu You, Xueqing Shi, Yuhang Zhou, Heng Qi,
- Abstract要約: RAGは、外部のエビデンスを持つ大きな言語モデルを基盤としているが、限られたコンテキスト予算の下では、どのパスを注入すべきかを判断することが重要な課題である。
検索関連度指標は, エンドツーエンドQA品質と相関が低く, マルチパスインジェクションにおいて負の相関が生じることも示している。
このモジュールは,ジェネレータに整列したユーティリティ信号を用いてエビデンスを選択し,切断前に弱い経路や有害経路をフィルタリングする。
- 参考スコア(独自算出の注目度): 26.57845149504473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) grounds large language models with external evidence, but under a limited context budget, the key challenge is deciding which retrieved passages should be injected. We show that retrieval relevance metrics (e.g., NDCG) correlate weakly with end-to-end QA quality and can even become negatively correlated under multi-passage injection, where redundancy and mild conflicts destabilize generation. We propose \textbf{Information Gain Pruning (IGP)}, a deployment-friendly reranking-and-pruning module that selects evidence using a generator-aligned utility signal and filters weak or harmful passages before truncation, without changing existing budget interfaces. Across five open-domain QA benchmarks and multiple retrievers and generators, IGP consistently improves the quality--cost trade-off. In a representative multi-evidence setting, IGP delivers about +12--20% relative improvement in average F1 while reducing final-stage input tokens by roughly 76--79% compared to retriever-only baselines.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、大規模な言語モデルに外部証拠を付与するが、限られたコンテキスト予算の下では、どのパスを注入すべきかを判断することが重要な課題である。
検索関連指標(例えばNDCG)は, エンドツーエンドのQA品質と相関し, 冗長性や軽微な競合が生成を不安定にするマルチパスインジェクションにおいて, 負の相関が生じる可能性がある。
本稿では,既存の予算インターフェースを変更することなく,ジェネレータに整列したユーティリティ信号を用いてエビデンスを選択し,トランケーション前や有害な通路をフィルタする,デプロイメントフレンドリーな再ランク・アンド・プルーニングモジュールである \textbf{information Gain Pruning (IGP) を提案する。
5つのオープンドメインのQAベンチマークと複数のレトリバーとジェネレータにまたがって、IGPは品質とコストのトレードオフを継続的に改善する。
代表的なマルチエビデンス設定では、IPPは平均的なF1の相対的な改善を+12-20%提供し、最終段階の入力トークンをレトリバーのみのベースラインに比べて約76-79%削減する。
関連論文リスト
- AdaGReS:Adaptive Greedy Context Selection via Redundancy-Aware Scoring for Token-Budgeted RAG [4.69377227249912]
本稿ではトークン予算RAGのための冗長性を考慮したコンテキスト選択フレームワークであるAdaGReSを紹介する。
AdaGReSは、目的から派生した限界ゲインを用いてトークン予算制約の下で欲求選択を行う。
オープンドメイン質問応答(Natural Questions)と高冗長バイオメディカル(ドラッグ)コーパスの実験は、冗長性制御とコンテキスト品質の一貫性を実証している。
論文 参考訳(メタデータ) (2025-12-31T18:48:07Z) - MMR1: Enhancing Multimodal Reasoning with Variance-Aware Sampling and Open Resources [113.33902847941941]
VAS (Variance-Aware Sampling) は、Variance Promotion Score (VPS) によって導かれるデータ選択戦略である。
我々は、1.6MのCoT冷間開始データと15kのRLQAペアを含む大規模かつ慎重にキュレートされたリソースをリリースする。
数学的推論ベンチマークによる実験では、キュレートされたデータと提案されたVASの有効性が示されている。
論文 参考訳(メタデータ) (2025-09-25T14:58:29Z) - EviNote-RAG: Enhancing RAG Models via Answer-Supportive Evidence Notes [39.61443457073034]
EviNote-RAGは検索ノート・アンサーのワークフローに従うフレームワークである。
生の外部情報を直接推論する代わりに、モデルが最初にサポート・エビデンス・ノートを生成する。
EviNote-RAGは最先端のパフォーマンスを実現し、回答の正確性、トレーニングの安定性、堅牢性、効率性を向上する。
論文 参考訳(メタデータ) (2025-08-31T14:44:45Z) - ReSURE: Regularizing Supervision Unreliability for Multi-turn Dialogue Fine-tuning [72.05731026796335]
マルチターン対話システムは、低品質のデータに晒された場合、しばしば劣化した性能に悩まされる。
本稿では,適応学習手法であるReSUREを提案する。
単一ソースと混合品質のデータセットの実験では、安定性と応答品質が改善された。
論文 参考訳(メタデータ) (2025-08-27T15:54:01Z) - From Ranking to Selection: A Simple but Efficient Dynamic Passage Selector for Retrieval Augmented Generation [10.904177110367122]
本稿では,経路選択を教師付き学習問題として扱う新しいフレームワークであるDynamic Passage Selector (DPS)を紹介する。
シームレスなプラグイン・アンド・プレイモジュールとして、DPSは標準的なRAGパイプラインを変更する必要はない。
DPSは適応的エビデンス選択を可能にすることにより,複雑なRAGシナリオにおける推論能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-08-13T05:05:34Z) - Question Decomposition for Retrieval-Augmented Generation [2.6409776648054764]
本稿では疑問分解をサブクエストに組み込んだRAGパイプラインを提案する。
補間的な文書を効果的に組み立てる一方で、再ランク付けによってノイズが減少することを示す。
再ランク自体は標準的なものであるが、LLMによる質問分解と既製のクロスエンコーダのペアリングは、マルチホップ質問の検索ギャップを橋渡しすることを示す。
論文 参考訳(メタデータ) (2025-07-01T01:01:54Z) - Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation [34.66546005629471]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに不可欠なツールであるが、時代遅れや誤った情報の生成に悩まされることが多い。
Retrieval-Augmented Generation (RAG)は、外部のリアルタイム情報検索をLLM応答に組み込むことでこの問題に対処する。
この問題に対処するため,マルチエージェントフィルタ検索検索生成(MAIN-RAG)を提案する。
MAIN-RAGはトレーニング不要なRAGフレームワークで、複数のLCMエージェントを利用して検索した文書のフィルタリングとスコア付けを行う。
論文 参考訳(メタデータ) (2024-12-31T08:07:26Z) - Auto-Prompt Generation is Not Robust: Prompt Optimization Driven by Pseudo Gradient [50.15090865963094]
PertBenchは、幅広い入力摂動を含む包括的なベンチマークデータセットである。
我々の分析は、既存の即時生成戦略における重大な脆弱性を明らかにしている。
PGOは、摂動型を擬似次数次信号として活用する、勾配のないプロンプト生成フレームワークである。
論文 参考訳(メタデータ) (2024-12-24T06:05:08Z) - Rethinking Model Selection and Decoding for Keyphrase Generation with
Pre-trained Sequence-to-Sequence Models [76.52997424694767]
キーフレーズ生成(英: Keyphrase Generation, KPG)は、NLPにおける長年の課題である。
Seq2seq 事前訓練言語モデル (PLM) は KPG に転換期を迎え、有望な性能改善をもたらした。
本稿では, PLM に基づく KPG におけるモデル選択と復号化戦略の影響について, 系統解析を行った。
論文 参考訳(メタデータ) (2023-10-10T07:34:45Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。