論文の概要: When Retrieval Succeeds and Fails: Rethinking Retrieval-Augmented Generation for LLMs
- arxiv url: http://arxiv.org/abs/2510.09106v1
- Date: Fri, 10 Oct 2025 08:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.398238
- Title: When Retrieval Succeeds and Fails: Rethinking Retrieval-Augmented Generation for LLMs
- Title(参考訳): 検索と障害:LLMの検索強化生成を再考する
- Authors: Yongjie Wang, Yue Yu, Kaisong Song, Jun Lin, Zhiqi Shen,
- Abstract要約: 大きな言語モデル(LLM)は、言語理解と生成における強力な能力を通じて、幅広いアプリケーションを可能にしました。
この制限を克服するために、LLMと外部検索機構を統合することにより、検索拡張生成(RAG)を開発した。
本稿では,RAGの概要を概観し,その全体的目標とコアコンポーネントについて概観する。
- 参考スコア(独自算出の注目度): 23.110765576033213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have enabled a wide range of applications through their powerful capabilities in language understanding and generation. However, as LLMs are trained on static corpora, they face difficulties in addressing rapidly evolving information or domain-specific queries. Retrieval-Augmented Generation (RAG) was developed to overcome this limitation by integrating LLMs with external retrieval mechanisms, allowing them to access up-to-date and contextually relevant knowledge. However, as LLMs themselves continue to advance in scale and capability, the relative advantages of traditional RAG frameworks have become less pronounced and necessary. Here, we present a comprehensive review of RAG, beginning with its overarching objectives and core components. We then analyze the key challenges within RAG, highlighting critical weakness that may limit its effectiveness. Finally, we showcase applications where LLMs alone perform inadequately, but where RAG, when combined with LLMs, can substantially enhance their effectiveness. We hope this work will encourage researchers to reconsider the role of RAG and inspire the development of next-generation RAG systems.
- Abstract(参考訳): 大きな言語モデル(LLM)は、言語理解と生成における強力な能力を通じて、幅広いアプリケーションを可能にしました。
しかし、LSMは静的コーパスで訓練されているため、急速に進化する情報やドメイン固有のクエリに対処するのは難しい。
Retrieval-Augmented Generation (RAG) は、LLMを外部検索機構と統合し、最新かつ文脈的に関連する知識にアクセスできるようにすることにより、この制限を克服するために開発された。
しかし、LSM自体が規模や能力の進歩を続けるにつれて、従来のRAGフレームワークの相対的な優位性はますます顕著になり、必要となってきた。
本稿では、RAGの概要を概観し、その全体的目的とコアコンポーネントについて述べる。
次に、RAGの主要な課題を分析し、その効果を制限できる致命的な弱点を強調します。
最後に,LLMのみを不適切に動作させるアプリケーションを紹介するが,RAGとLLMを組み合わせれば,その性能を大幅に向上させることができる。
この研究は、研究者がRAGの役割を再考し、次世代RAGシステムの開発を促すことを願っている。
関連論文リスト
- R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - U-NIAH: Unified RAG and LLM Evaluation for Long Context Needle-In-A-Haystack [9.760456105567078]
本稿では,Large Language Models(LLM)とRetrieval-Augmented Generation(RAG)を体系的に比較する統一フレームワークであるU-NIAHを紹介する。
本フレームワークでは,複数のニードル,長いニードル,ニードルの設定を,異なる検索設定とともに組み込んでいる。
以上の結果から,RAGはロスト・イン・ザ・ミドル効果を緩和し,ロバスト性を向上させることにより,より小さなLCMを著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-01T05:05:24Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - The Power of Noise: Redefining Retrieval for RAG Systems [19.387105120040157]
Retrieval-Augmented Generation (RAG) は、大規模言語モデルの事前学習知識を超えて拡張する方法として登場した。
我々は、RAGソリューションが取得すべきパスIRシステムの種類に焦点を当てる。
論文 参考訳(メタデータ) (2024-01-26T14:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。