論文の概要: Efficient Test-Time Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2511.01059v1
- Date: Sun, 02 Nov 2025 19:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.047292
- Title: Efficient Test-Time Retrieval Augmented Generation
- Title(参考訳): 効率的なテスト時間検索拡張ジェネレータ
- Authors: Hailong Yin, Bin Zhu, Jingjing Chen, Chong-Wah Ngo,
- Abstract要約: 本稿では, ET2RAG というテスト時間検索拡張フレームワークを提案し, 大規模言語モデルの性能向上を図る。
具体的には、ET2RAGはトレーニング不要の手法であり、まず最も関連性の高い文書を検索し、LSMを増強し、多様な候補の応答を効率的に生成する。
- 参考スコア(独自算出の注目度): 40.84120171611779
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Large Language Models (LLMs) demonstrate significant capabilities, their reliance on parametric knowledge often leads to inaccuracies. Retrieval Augmented Generation (RAG) mitigates this by incorporating external knowledge, but these methods may introduce irrelevant retrieved documents, leading to inaccurate responses. While the integration methods filter out incorrect answers from multiple responses, but lack external knowledge like RAG methods, and their high costs require balancing overhead with performance gains. To address these issues, we propose an Efficient Test-Time Retrieval-Augmented Generation Framework named ET2RAG to improve the performance of LLMs while maintaining efficiency. Specifically, ET2RAG is a training-free method, that first retrieves the most relevant documents and augments the LLMs to efficiently generate diverse candidate responses by managing response length. Then we compute the similarity of candidate responses and employ a majority voting mechanism to select the most suitable response as the final output. In particular, we discover that partial generation is sufficient to capture the key information necessary for consensus calculation, allowing us to effectively perform majority voting without the need for fully generated responses. Thus, we can reach a balance between computational cost and performance by managing the response length for the number of retrieved documents for majority voting. Experimental results demonstrate that ET2RAG significantly enhances performance across three tasks, including open-domain question answering, recipe generation and image captioning.
- Abstract(参考訳): LLM(Large Language Models)は重要な能力を示すが、パラメトリックな知識への依存はしばしば不正確な結果をもたらす。
Retrieval Augmented Generation (RAG)は、外部知識を取り入れることでこれを緩和するが、これらの手法は無関係に回収された文書を導入し、不正確な応答をもたらす可能性がある。
統合メソッドは、複数のレスポンスから誤った回答をフィルタリングするが、RAGメソッドのような外部知識が欠如しており、その高いコストは、パフォーマンスの向上とオーバーヘッドのバランスを必要とする。
これらの課題に対処するため, ET2RAG というテスト時間検索拡張フレームワークを提案する。
具体的には、ET2RAGは、まず最も関連性の高い文書を検索し、LSMを増強し、応答長を管理することで、多様な候補応答を効率的に生成する、トレーニング不要の手法である。
次に、候補応答の類似性を計算し、最終出力として最も適した応答を選択するために多数決機構を用いる。
特に、部分生成はコンセンサス計算に必要な重要な情報を取得するのに十分であり、完全生成された応答を必要とせずに、多数決を効果的に行うことができる。
これにより,検索した文書数に対する応答長を多数決で管理することで,計算コストと性能のバランスをとることができる。
実験の結果,ET2RAGは,オープンドメイン質問応答,レシピ生成,画像キャプションなど,3つのタスクにおけるパフォーマンスを著しく向上させることがわかった。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Distilling a Small Utility-Based Passage Selector to Enhance Retrieval-Augmented Generation [110.610512800947]
Retrieval-augmented Generation (RAG)は、取得した情報を組み込むことで、大規模言語モデル(LLM)を強化する。
RAGでは、重要度は実用性に移行し、正確な回答を生成するためのパスの有用性を考慮している。
提案手法は、ランク付けよりもユーティリティベースの選択に重点を置いており、固定しきい値を必要とせずに、特定のクエリに合わせた動的通過選択を可能にする。
本実験は, 実用性に基づく選択により, RAGの柔軟性とコスト効率が向上し, 計算コストが大幅に低減され, 応答品質が向上することを示した。
論文 参考訳(メタデータ) (2025-07-25T09:32:29Z) - Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [95.85537087475882]
既存のアプローチは、大規模言語モデル(LLM)の固有の知識を過小評価している。
本稿では,選択検索と知識の言語化を結びつける新しいフレームワークであるSelf-Routing RAGを提案する。
SR-RAGは検索回数を29%削減し、性能は5.1%向上した。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation [34.66546005629471]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに不可欠なツールであるが、時代遅れや誤った情報の生成に悩まされることが多い。
Retrieval-Augmented Generation (RAG)は、外部のリアルタイム情報検索をLLM応答に組み込むことでこの問題に対処する。
この問題に対処するため,マルチエージェントフィルタ検索検索生成(MAIN-RAG)を提案する。
MAIN-RAGはトレーニング不要なRAGフレームワークで、複数のLCMエージェントを利用して検索した文書のフィルタリングとスコア付けを行う。
論文 参考訳(メタデータ) (2024-12-31T08:07:26Z) - DR-RAG: Applying Dynamic Document Relevance to Retrieval-Augmented Generation for Question-Answering [4.364937306005719]
RAGは最近、質問応答(QA)のような知識集約的なタスクにおいて、LLM(Large Language Models)のパフォーマンスを実証した。
重要な文書とクエリの間には関連性が低いものの,文書の一部とクエリを組み合わせることで,残りの文書を検索できることがわかった。
文書検索のリコールと回答の精度を向上させるために,DR-RAG(Dynamic-Relevant Retrieval-Augmented Generation)と呼ばれる2段階検索フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T15:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。