論文の概要: LANCER: LLM Reranking for Nugget Coverage
- arxiv url: http://arxiv.org/abs/2601.22008v1
- Date: Thu, 29 Jan 2026 17:16:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.034121
- Title: LANCER: LLM Reranking for Nugget Coverage
- Title(参考訳): LANCER: LLMがNugget Coverageに昇格
- Authors: Jia-Huei Ju, François G. Landry, Eugene Yang, Suzan Verberne, Andrew Yates,
- Abstract要約: ロングフォーム検索拡張生成(RAG)は、幅広い関連情報をカバーするドキュメントを提供するために、検索を必要とする。
LLMに基づくナゲットカバレッジのランク付け手法であるLANCERを提案する。
実験の結果,LANCERはナゲットカバレッジの指標によって,検索の質を向上させることが示された。
- 参考スコア(独自算出の注目度): 25.520895889091445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike short-form retrieval-augmented generation (RAG), such as factoid question answering, long-form RAG requires retrieval to provide documents covering a wide range of relevant information. Automated report generation exemplifies this setting: it requires not only relevant information but also a more elaborate response with comprehensive information. Yet, existing retrieval methods are primarily optimized for relevance ranking rather than information coverage. To address this limitation, we propose LANCER, an LLM-based reranking method for nugget coverage. LANCER predicts what sub-questions should be answered to satisfy an information need, predicts which documents answer these sub-questions, and reranks documents in order to provide a ranked list covering as many information nuggets as possible. Our empirical results show that LANCER enhances the quality of retrieval as measured by nugget coverage metrics, achieving higher $α$-nDCG and information coverage than other LLM-based reranking methods. Our oracle analysis further reveals that sub-question generation plays an essential role.
- Abstract(参考訳): ファクトイドの質問応答のような短文検索拡張生成(RAG)とは異なり、長文RAGは検索を必要とし、幅広い関連情報をカバーするドキュメントを提供する。
自動レポート生成はこの設定を例示します。関連する情報だけでなく、包括的な情報に対するより精巧な応答も必要です。
しかし,既存の検索手法は主に情報カバレッジではなく,関連性ランキングに最適化されている。
この制限に対処するため,LLMに基づくナゲットカバレッジのランク付け手法であるLANCERを提案する。
LANCERは、情報要求を満たすためにどのサブクエストが答えるべきかを予測し、どのドキュメントがこれらのサブクエストに答えるべきかを予測し、可能な限り多くの情報ナゲットをカバーするランクリストを提供するためにドキュメントを再参照する。
実験結果から,LANCERはNuggetカバレッジ指標によって測定された検索の質を向上し,他のLLM手法よりも高い$α$-nDCGと情報カバレッジを実現していることがわかった。
我々のオラクル分析は、サブクエスト生成が重要な役割を担っていることをさらに明らかにしている。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - UiS-IAI@LiveRAG: Retrieval-Augmented Information Nugget-Based Generation of Responses [11.798121559820792]
Retrieval-augmented Generation (RAG) は、事実の正しさ、ソース属性、応答完全性に関連する課題に直面している。
本稿では,検索した文書から抽出した関連情報の最小限の原子単位である情報ナゲットに基づくモジュールパイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-27T13:29:25Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - CaLM: Contrasting Large and Small Language Models to Verify Grounded Generation [76.31621715032558]
グラウンデッドジェネレーションは、言語モデル(LM)に、より信頼性が高く説明可能な応答を生成する能力を持たせることを目的としている。
本稿では,新しい検証フレームワークであるCaLMを紹介する。
我々のフレームワークは、より少ないパラメトリックメモリに依存する小さなLMを有効活用し、より大きなLMの出力を検証する。
論文 参考訳(メタデータ) (2024-06-08T06:04:55Z) - Improving Retrieval for RAG based Question Answering Models on Financial Documents [0.046603287532620746]
本稿では,RAGパイプラインの既存の制約について検討し,テキスト検索の方法を紹介する。
高度なチャンキングテクニック、クエリ拡張、メタデータアノテーションの組み込み、再ランク付けアルゴリズムの適用、埋め込みアルゴリズムの微調整などの戦略を練っている。
論文 参考訳(メタデータ) (2024-03-23T00:49:40Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering [42.66223628527439]
アダプティブ検索拡張生成(ARAG)は、不特定に検索するのではなく、クエリに対する検索の必要性を動的に決定することを目的としている。
この研究は、新しい世界とロングテール知識をカバーする1,271の短い形式の質問を含む、RetrievalQAというベンチマークを提示する。
論文 参考訳(メタデータ) (2024-02-26T09:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。