論文の概要: Improving End-to-End Training of Retrieval-Augmented Generation Models via Joint Stochastic Approximation
- arxiv url: http://arxiv.org/abs/2508.18168v1
- Date: Mon, 25 Aug 2025 16:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.859533
- Title: Improving End-to-End Training of Retrieval-Augmented Generation Models via Joint Stochastic Approximation
- Title(参考訳): 共同確率近似による検索拡張生成モデルのエンドツーエンド学習の改善
- Authors: Hongyu Cao, Yuxuan Wu, Yucheng Cai, Xianyu Zhao, Zhijian Ou,
- Abstract要約: Retrieval-augmented Generation (RAG)は、パラメトリックメモリと非パラメトリックメモリを組み合わせたパラダイムとして広く認知されている。
RAGモデルのエンドツーエンド最適化における大きな課題は、関連するパスに対する限界化が必要であることである。
本稿では,共同近似(JSA)に基づくRAGのエンドツーエンドトレーニングを提案する。
JSAアルゴリズムはEM(expectation-maximization)アルゴリズムの拡張であり、潜在変数モデルの推定に特に強力である。
- 参考スコア(独自算出の注目度): 9.493788719707835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has become a widely recognized paradigm to combine parametric memory with non-parametric memories. An RAG model consists of two serial connecting components (retriever and generator). A major challenge in end-to-end optimization of the RAG model is that marginalization over relevant passages (modeled as discrete latent variables) from a knowledge base is required. Traditional top-K marginalization and variational RAG (VRAG) suffer from biased or high-variance gradient estimates. In this paper, we propose and develop joint stochastic approximation (JSA) based end-to-end training of RAG, which is referred to as JSA-RAG. The JSA algorithm is a stochastic extension of the EM (expectation-maximization) algorithm and is particularly powerful in estimating discrete latent variable models. Extensive experiments are conducted on five datasets for two tasks (open-domain question answering, knowledge-grounded dialogs) and show that JSA-RAG significantly outperforms both vanilla RAG and VRAG. Further analysis shows the efficacy of JSA-RAG from the perspectives of generation, retrieval, and low-variance gradient estimate.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、パラメトリックメモリと非パラメトリックメモリを組み合わせたパラダイムとして広く認知されている。
RAGモデルは、2つのシリアル接続コンポーネント(レトリバーとジェネレータ)から構成される。
RAGモデルのエンドツーエンド最適化における大きな課題は、知識ベースからの関連するパス(離散潜在変数としてモデル化される)に対する限界化が必要であることである。
従来のトップK偏差化と変分RAG(VRAG)は偏差あるいは高分散勾配推定に悩まされている。
本稿では,共同確率近似(JSA)に基づくRAGのエンドツーエンドトレーニングを提案し,開発する。
JSAアルゴリズムは、EM(Expectation-maximization)アルゴリズムの確率的拡張であり、特に離散潜在変数モデルの推定に強力である。
JSA-RAG がバニラRAG と VRAG の両方を著しく上回っていることを示す。
さらに, 生成, 検索, 低分散勾配推定の観点から, JSA-RAGの有効性が示唆された。
関連論文リスト
- Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - RAGO: Systematic Performance Optimization for Retrieval-Augmented Generation Serving [9.962031642362813]
Retrieval-augmented Generation (RAG) は、信頼性LLMサービスに対する一般的なアプローチとして現れつつある。
RAGは、幅広いRAGアルゴリズムをキャプチャする構造化された抽象化である。
RAGOは、効率的なRAGサービスのためのシステム最適化フレームワークである。
論文 参考訳(メタデータ) (2025-03-18T18:58:13Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。