論文の概要: Rank4Gen: RAG-Preference-Aligned Document Set Selection and Ranking
- arxiv url: http://arxiv.org/abs/2601.11273v1
- Date: Fri, 16 Jan 2026 13:19:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.502302
- Title: Rank4Gen: RAG-Preference-Aligned Document Set Selection and Ranking
- Title(参考訳): Rank4Gen: RAG-Preference-Aligned Document Set Selection and Ranking
- Authors: Yongqi Fan, Yuxiang Chu, Zhentao Xia, Xiaoyang Chen, Jie Liu, Haijin Liang, Jin Ma, Ben He, Yingfei Sun, Dezhi Ye, Tong Ruan,
- Abstract要約: 我々は,ジェネレータを意識したRAG用ローカである textbfRank4Gen を提案する。
我々は,複数のオープンソースコーパスと多様な下流ジェネレータから構築されたデータセットである textbfPRISM を構築した。RRank4Gen がRAG の複雑なエビデンス構成に対して強靭かつ競合的な性能を発揮することを示す5つの挑戦的かつ最近の RAG ベンチマークの実験を行った。
- 参考スコア(独自算出の注目度): 32.2695287857621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the RAG paradigm, the information retrieval module provides context for generators by retrieving and ranking multiple documents to support the aggregation of evidence. However, existing ranking models are primarily optimized for query--document relevance, which often misaligns with generators' preferences for evidence selection and citation, limiting their impact on response quality. Moreover, most approaches do not account for preference differences across generators, resulting in unstable cross-generator performance. We propose \textbf{Rank4Gen}, a generator-aware ranker for RAG that targets the goal of \emph{Ranking for Generators}. Rank4Gen introduces two key preference modeling strategies: (1) \textbf{From Ranking Relevance to Response Quality}, which optimizes ranking with respect to downstream response quality rather than query--document relevance; and (2) \textbf{Generator-Specific Preference Modeling}, which conditions a single ranker on different generators to capture their distinct ranking preferences. To enable such modeling, we construct \textbf{PRISM}, a dataset built from multiple open-source corpora and diverse downstream generators. Experiments on five challenging and recent RAG benchmarks demonstrate that RRank4Gen achieves strong and competitive performance for complex evidence composition in RAG.
- Abstract(参考訳): RAGパラダイムでは、情報検索モジュールが複数の文書を検索してランキングし、証拠の収集を支援することで、ジェネレータのコンテキストを提供する。
しかし、既存のランキングモデルは、主にクエリドキュメントの関連性に最適化されており、多くの場合、エビデンスの選択と引用に対するジェネレータの好みと誤解し、応答品質への影響を制限する。
さらに、ほとんどのアプローチは、ジェネレータ間の好みの違いを考慮せず、不安定なクロスジェネレータ性能をもたらす。
本稿では,ジェネレータを意識したRAGのローカである \textbf{Rank4Gen} を提案する。
Rank4Gen では,(1) クエリドキュメントの関連性よりもダウンストリームの応答品質に関してランク付けを最適化する \textbf{From Ranking Relevance to Response Quality} ,(2) 異なるジェネレータ上で単一のランク付けを条件とした \textbf{Generator-Specific Preference Modeling} という2つの重要な選好モデリング手法を導入している。
このようなモデリングを可能にするために、複数のオープンソースコーパスと多様な下流ジェネレータから構築されたデータセットである \textbf{PRISM} を構築した。
RRank4GenはRAGの複雑なエビデンスの構成に対して強力で競争力のある性能を達成している。
関連論文リスト
- Towards Mixed-Modal Retrieval for Universal Retrieval-Augmented Generation [72.34977512403643]
Retrieval-Augmented Generation (RAG) は、外部コーパスから関連文書を取得することで、大規模言語モデル(LLM)を強化するための強力なパラダイムとして登場した。
既存のRAGシステムは、主に平凡なテキスト文書に焦点を当てており、クエリとドキュメントの両方が(テキストや画像のような)混合モダリティを含む実世界のシナリオでは、しばしば不足している。
我々は,Universal Retrieval-Augmented Generationシナリオに適した混合モーダル-混合モーダルレトリバーであるNyxを提案する。
論文 参考訳(メタデータ) (2025-10-20T09:56:43Z) - ImpRAG: Retrieval-Augmented Generation with Implicit Queries [34.72864597562907]
ImpRAGは、検索と生成を統一モデルに統合するクエリフリーなRAGシステムである。
我々は、ImpRAGが、多様な形式を持つ未確認タスクの正確なマッチスコアを3.6-11.5改善したことを示す。
論文 参考訳(メタデータ) (2025-06-02T21:38:21Z) - Aligning Web Query Generation with Ranking Objectives via Direct Preference Optimization [21.140086066964667]
本稿では,クエリ生成プロセスにランキング信号を統合するフレームワークを提案する。
実験の結果,DPO後の問合せと文書の相互関係は高く評価された。
論文 参考訳(メタデータ) (2025-05-25T20:34:12Z) - PA-RAG: RAG Alignment via Multi-Perspective Preference Optimization [35.48003039415176]
検索拡張世代(RAG)は、大規模言語モデル(LLM)における時代遅れおよび幻覚的内容の問題を軽減する。
RAGジェネレータは、不適切な応答情報、応答堅牢性、および励振品質に悩まされることが多い。
本稿では,PA-RAG要求を包括的に整合させるため,複数視点優先アライメント(PA-RAG)を提案する。
論文 参考訳(メタデータ) (2024-12-19T04:18:51Z) - WeQA: A Benchmark for Retrieval Augmented Generation in Wind Energy Domain [2.8514947506989707]
Large Language Models (LLM) と Retrieval Augmented Generation (RAG) アプローチは、トランスフォーメーションソリューションを提供する。
本稿では,ドメイン関連RAGベンチマークを生成するための包括的なフレームワークを提案する。
風力エネルギー領域の第一級ベンチマークであるWeQAを導入することで、この枠組みを実証する。
論文 参考訳(メタデータ) (2024-08-21T17:43:11Z) - RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs [60.38044044203333]
大規模言語モデル(LLM)は、通常、検索拡張生成(RAG)において、レトリバーからトップkコンテキストを利用する。
本稿では,RAGにおける文脈ランク付けと回答生成の両目的のために,単一のLLMをチューニング可能な新しい命令微調整フレームワークであるRanRAGを提案する。
例えば、GPT-4-0613, GPT-4-turbo-2024-0409, ChatQA-1.5, RAGベンチマークの最先端性能を備えたオープンソースモデルなどである。
論文 参考訳(メタデータ) (2024-07-02T17:59:17Z) - Blended RAG: Improving RAG (Retriever-Augmented Generation) Accuracy with Semantic Search and Hybrid Query-Based Retrievers [0.0]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル (LLM) で文書のプライベートな知識基盤を注入し、生成的Q&A (Question-Answering) システムを構築するための一般的なアプローチである。
本稿では,Vector インデックスや Sparse インデックスなどのセマンティック検索手法をハイブリッドクエリ手法と組み合わせた 'Blended RAG' 手法を提案する。
本研究は,NQ や TREC-COVID などの IR (Information Retrieval) データセットの検索結果の改善と,新たなベンチマーク設定を行う。
論文 参考訳(メタデータ) (2024-03-22T17:13:46Z) - RAGGED: Towards Informed Design of Scalable and Stable RAG Systems [51.171355532527365]
Retrieval-augmented Generation (RAG)は、外部知識を統合することで言語モデルを強化する。
RAGGEDは、RAGシステムを体系的に評価するためのフレームワークである。
論文 参考訳(メタデータ) (2024-03-14T02:26:31Z) - Joint Generator-Ranker Learning for Natural Language Generation [99.16268050116717]
JGRは、ジェネレータとローダを単一のフレームワークに統合する、新しいジョイントトレーニングアルゴリズムである。
ジェネレータとランク装置を反復的に更新することにより、JGRは学習を効果的に調和させ、共同で品質を高めることができる。
論文 参考訳(メタデータ) (2022-06-28T12:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。