論文の概要: LTRR: Learning To Rank Retrievers for LLMs
- arxiv url: http://arxiv.org/abs/2506.13743v1
- Date: Mon, 16 Jun 2025 17:53:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.195758
- Title: LTRR: Learning To Rank Retrievers for LLMs
- Title(参考訳): LTRR: LLMのレトリバーのランク付けを学ぶ
- Authors: To Eun Kim, Fernando Diaz,
- Abstract要約: ルーティングベースのRAGシステムは、単一リトリバーベースのシステムよりも優れていることを示す。
パフォーマンス向上は、特にAnswer Correctness(AC)メトリックでトレーニングされたモデルで顕著である。
SIGIR 2025 LiveRAG チャレンジの一環として,提案システムを用いて提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 53.285436927963865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems typically rely on a single fixed retriever, despite growing evidence that no single retriever performs optimally across all query types. In this paper, we explore a query routing approach that dynamically selects from a pool of retrievers based on the query, using both train-free heuristics and learned routing models. We frame routing as a learning-to-rank (LTR) problem and introduce LTRR, a framework that learns to rank retrievers by their expected utility gain to downstream LLM performance. Our experiments, conducted on synthetic QA data with controlled query type variations, show that routing-based RAG systems can outperform the best single-retriever-based systems. Performance gains are especially pronounced in models trained with the Answer Correctness (AC) metric and with pairwise learning approaches, especially with XGBoost. We also observe improvements in generalization to out-of-distribution queries. As part of the SIGIR 2025 LiveRAG challenge, our submitted system demonstrated the practical viability of our approach, achieving competitive performance in both answer correctness and faithfulness. These findings highlight the importance of both training methodology and metric selection in query routing for RAG systems.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは一般に1つの固定型レトリバーに依存している。
本稿では,列車自由ヒューリスティックと学習型ルーティングモデルの両方を用いて,クエリに基づいてレトリバーのプールから動的に選択するクエリルーティング手法について検討する。
我々は,LTR(Learning-to-rank)問題としてルーティングをフレーム化し,LLMの性能向上を期待して検索者のランク付けを学習するフレームワークであるLTRRを導入する。
本実験は,クエリタイプの変動を制御した合成QAデータを用いて,ルーティングベースのRAGシステムが単一再帰型システムよりも優れた性能を発揮することを示す。
パフォーマンス向上は特に、Answer Correctness(AC)メトリックでトレーニングされたモデルと、XGBoost(英語版)でペアで学習したアプローチで顕著である。
また、アウト・オブ・ディストリビューションクエリへの一般化の改善も観察する。
SIGIR 2025 LiveRAG チャレンジの一環として,提案システムでは,回答の正しさと忠実さの両面での競争性能を達成し,我々のアプローチの実用性を示した。
これらの結果は,RAGシステムにおけるクエリルーティングにおけるトレーニング手法とメトリック選択の重要性を強調した。
関連論文リスト
- Query Routing for Retrieval-Augmented Language Models [38.05904245087491]
Retrieval-Augmented Generation (RAG) は、知識集約タスクにおけるLarge Language Models (LLM) の性能を大幅に向上させる。
既存のルーティング手法はRAGシナリオで最適以下の性能を示すのに対し,外部文書はLLMのクエリ応答能力に動的に影響を及ぼす。
本稿では、文書埋め込みとRAG機能埋め込みを利用して知識表現シフトを捉えるパラメトリックなRAG対応ルーティング設計であるRAGを提案する。
論文 参考訳(メタデータ) (2025-05-29T03:44:56Z) - CL-RAG: Bridging the Gap in Retrieval-Augmented Generation with Curriculum Learning [23.424936103502976]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)の能力を高める効果的な方法である。
既存の方法は、検索したトップkの文書を直接利用することにより、RAGシステムにおけるレトリバーやジェネレータの最適化に重点を置いている。
本稿では,CL-RAGという,多段階のカリキュラム学習に基づくRAGシステムトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-15T16:53:04Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - MST-R: Multi-Stage Tuning for Retrieval Systems and Metric Evaluation [7.552430488883876]
マルチステージチューニング戦略を用いて,検索器の性能を対象領域に適応させるシステムを提案する。
RIRAGチャレンジ用にリリースされたデータセット上で、システムパフォーマンスをベンチマークする。
我々は、RegNLPチャレンジリーダーボードのトップランクを獲得することで、大きなパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-12-13T17:53:29Z) - Invar-RAG: Invariant LLM-aligned Retrieval for Better Generation [43.630437906898635]
Invar-RAGと呼ばれる2段階ファインチューニングアーキテクチャを提案する。
検索段階では、LORAに基づく表現学習を統合してLLMベースの検索器を構築する。
生成段階では、抽出した情報に基づいて回答を生成する際のLCM精度を向上させるための精細調整法が用いられる。
論文 参考訳(メタデータ) (2024-11-11T14:25:37Z) - Fine-Grained Guidance for Retrievers: Leveraging LLMs' Feedback in Retrieval-Augmented Generation [20.420575358183687]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)に固有の幻覚を緩和する有効な方法であることが証明されている。
従来のアプローチでは、通常、RAGの最適化に欠けるセマンティックな類似性に基づいて、レトリバーをトレーニングする。
我々は,LLMの言語機能を活用して,より粒度の細かい情報中心の視点からサンプルを構築する新しいフレームワークFiGRetを提案する。
論文 参考訳(メタデータ) (2024-11-06T14:42:39Z) - RAG-DDR: Optimizing Retrieval-Augmented Generation Using Differentiable Data Rewards [78.74923079748521]
Retrieval-Augmented Generation (RAG) は、外部リソースから知識を取得することで、Large Language Models (LLM) における幻覚を緩和する効果を証明している。
現在のアプローチでは、命令チューニングを使用してLLMを最適化し、検索した知識を活用する能力を改善している。
本稿では,異なるRAGモジュール間でデータ嗜好を整列させることでRAGシステムを訓練するDDR法を提案する。
論文 参考訳(メタデータ) (2024-10-17T12:53:29Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。