論文の概要: Is Agentic RAG worth it? An experimental comparison of RAG approaches
- arxiv url: http://arxiv.org/abs/2601.07711v1
- Date: Mon, 12 Jan 2026 16:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.666552
- Title: Is Agentic RAG worth it? An experimental comparison of RAG approaches
- Title(参考訳): エージェントRAGは有用か? : RAGアプローチの実験的比較
- Authors: Pietro Ferrazzi, Milica Cvjeticanin, Alessio Piraccini, Davide Giannuzzi,
- Abstract要約: 検索・拡張生成システムは通常、ジェネレータと検索コンポーネントの組み合わせで定義される。
これらの欠点は「強化されたRAG」の開発を動機づけている。
大規模言語モデルの自己回帰能力の増大により,新たなパラダイムが実現した。
- 参考スコア(独自算出の注目度): 0.07777489763207261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems are usually defined by the combination of a generator and a retrieval component that extracts textual context from a knowledge base to answer user queries. However, such basic implementations exhibit several limitations, including noisy or suboptimal retrieval, misuse of retrieval for out-of-scope queries, weak query-document matching, and variability or cost associated with the generator. These shortcomings have motivated the development of "Enhanced" RAG, where dedicated modules are introduced to address specific weaknesses in the workflow. More recently, the growing self-reflective capabilities of Large Language Models (LLMs) have enabled a new paradigm, which we refer to as "Agentic" RAG. In this approach, the LLM orchestrates the entire process-deciding which actions to perform, when to perform them, and whether to iterate-thereby reducing reliance on fixed, manually engineered modules. Despite the rapid adoption of both paradigms, it remains unclear which approach is preferable under which conditions. In this work, we conduct an extensive, empirically driven evaluation of Enhanced and Agentic RAG across multiple scenarios and dimensions. Our results provide practical insights into the trade-offs between the two paradigms, offering guidance on selecting the most effective RAG design for real-world applications, considering both costs and performance.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、通常、ジェネレータと知識ベースからテキストコンテキストを抽出してユーザクエリに応答する検索コンポーネントの組み合わせによって定義される。
しかし、このような基本的な実装には、ノイズや準最適検索、スコープ外クエリの検索の誤用、クエリ-ドキュメントマッチングの弱さ、ジェネレータに関連する可変性やコストなど、いくつかの制限がある。
これらの欠点は、ワークフローの特定の弱点に対処するために専用のモジュールを導入する"拡張"RAGの開発を動機付けている。
近年,Large Language Models (LLMs) の自己回帰能力の増大により,新たなパラダイムが実現された。
このアプローチでは、LLMは、どのアクションを実行するか、いつ実行するか、そして、固定された手動のモジュールへの依存を減らすために繰り返し実行するかを、プロセス決定全体を編成する。
両方のパラダイムが急速に採用されているにも拘わらず、どのアプローチがどの条件で望ましいのかは定かではない。
本研究では,複数のシナリオと次元にまたがる拡張RAGとエージェントRAGの広範かつ実験的に評価を行う。
本結果は,2つのパラダイム間のトレードオフに関する実践的な洞察を提供し,コストと性能の両方を考慮して,現実のアプリケーションにおいて最も効果的なRAG設計を選択するためのガイダンスを提供する。
関連論文リスト
- RAGCap-Bench: Benchmarking Capabilities of LLMs in Agentic Retrieval Augmented Generation Systems [31.4909149697414]
Retrieval-Augmented Generation (RAG) はLarge Language Models (LLM) の重要な制限を緩和する
最近の研究はエージェントRAGシステムを通じてこのパラダイムを拡張しており、LLMは複雑なクエリを反復的に計画、検索、推論するエージェントとして機能する。
本稿では,エージェントRAGにおける中間タスクの微粒化評価のための機能指向ベンチマークであるRAGCap-Benchを提案する。
論文 参考訳(メタデータ) (2025-10-15T04:13:00Z) - SIRAG: Towards Stable and Interpretable RAG with A Process-Supervised Multi-Agent Framework [7.37561751991963]
本稿では,レシーバとジェネレータのギャップを埋めるプロセス管理型マルチエージェントフレームワークを提案する。
提案するフレームワークはモジュール式でプラグアンドプレイで、レトリバーやジェネレータを変更する必要はない。
論文 参考訳(メタデータ) (2025-09-17T09:09:28Z) - MAO-ARAG: Multi-Agent Orchestration for Adaptive Retrieval-Augmented Generation [35.853052535353775]
質問応答システム(QA)では、応答精度の向上と幻覚の軽減にRAG(Retrieval-Augmented Generation)が重要になっている。
マルチエージェントオーケストレーションを利用するMAO-ARAGという適応型RAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-01T18:15:22Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - Improving Retrieval-Augmented Generation through Multi-Agent Reinforcement Learning [88.55095746156428]
Retrieval-augmented Generation (RAG) は、外部知識を大規模言語モデルに組み込むために広く利用されている。
標準的なRAGパイプラインは、クエリ書き換え、文書検索、文書フィルタリング、回答生成など、いくつかのコンポーネントで構成されている。
本稿では,複数コンポーネントからなる複雑なRAGパイプラインを多エージェント協調作業として扱うことを提案する。
論文 参考訳(メタデータ) (2025-01-25T14:24:50Z) - Don't Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks [11.053340674721005]
検索拡張世代(RAG)は,外部知識ソースを統合することで言語モデルを強化する強力なアプローチとして注目されている。
本稿では、リアルタイム検索をバイパスする代替パラダイムであるキャッシュ拡張生成(CAG)を提案する。
論文 参考訳(メタデータ) (2024-12-20T06:58:32Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。