論文の概要: RAG+: Enhancing Retrieval-Augmented Generation with Application-Aware Reasoning
- arxiv url: http://arxiv.org/abs/2506.11555v2
- Date: Tue, 24 Jun 2025 05:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 15:36:09.016812
- Title: RAG+: Enhancing Retrieval-Augmented Generation with Application-Aware Reasoning
- Title(参考訳): RAG+: アプリケーションアウェア推論による検索拡張ジェネレーションの強化
- Authors: Yu Wang, Shiwan Zhao, Zhihu Wang, Yubo Zhang, Xicheng Zhang, Zhengfan Wang, Heyuan Huang, Ming Fan, Ting Liu,
- Abstract要約: RAGパイプラインにアプリケーション認識推論を明示的に組み込んだ原則付きモジュール拡張であるRAG+を紹介します。
RAG+は、知識とアライメントされたアプリケーションの例からなる二重コーパスを構築し、手動または自動で作成し、推論中に共同で両方のコーパスを取得する。
複数のモデルで実施された数学、法学、医学の分野での実験では、RAG+は標準的なRAGの変種を一貫して上回り、3.5%の平均的な改善を達成し、複雑なシナリオではピークが7.5%まで上昇することを示した。
- 参考スコア(独自算出の注目度): 13.763558628816288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of external knowledge through Retrieval-Augmented Generation (RAG) has become foundational in enhancing large language models (LLMs) for knowledge-intensive tasks. However, existing RAG paradigms often overlook the cognitive step of applying knowledge, leaving a gap between retrieved facts and task-specific reasoning. In this work, we introduce RAG+, a principled and modular extension that explicitly incorporates application-aware reasoning into the RAG pipeline. RAG+ constructs a dual corpus consisting of knowledge and aligned application examples, created either manually or automatically, and retrieves both jointly during inference. This design enables LLMs not only to access relevant information but also to apply it within structured, goal-oriented reasoning processes. Experiments across mathematical, legal, and medical domains, conducted on multiple models, demonstrate that RAG+ consistently outperforms standard RAG variants, achieving average improvements of 3-5%, and peak gains up to 7.5% in complex scenarios. By bridging retrieval with actionable application, RAG+ advances a more cognitively grounded framework for knowledge integration, representing a step toward more interpretable and capable LLMs.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)による外部知識の統合は、知識集約タスクのための大規模言語モデル(LLM)の強化の基礎となっている。
しかしながら、既存のRAGパラダイムはしばしば知識を適用する認知的なステップを見落とし、検索された事実とタスク固有の推論の間にギャップを残している。
本稿では,アプリケーション認識推論をRAGパイプラインに明示的に組み込んだ原則付きモジュール拡張であるRAG+を紹介する。
RAG+は、知識とアライメントされたアプリケーションの例からなる二重コーパスを構築し、手動または自動で作成し、推論中に共同で両方のコーパスを取得する。
この設計により、LCMは関連する情報にアクセスできるだけでなく、構造化されたゴール指向の推論プロセスにも適用できる。
複数のモデルで実施された数学、法学、医学の分野での実験では、RAG+は標準的なRAGの変種よりも一貫して優れており、35%の平均的な改善が達成され、複雑なシナリオでは最大で7.5%向上している。
動作可能なアプリケーションで検索をブリッジすることで、RAG+は知識統合のためのより認知的な基盤となるフレームワークを前進させ、より解釈可能で有能なLCMに向けたステップを示す。
関連論文リスト
- KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [66.35046942874737]
KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Dynamic and Parametric Retrieval-Augmented Generation [17.311144793201652]
Retrieval-Augmented Generation (RAG) は、大規模言語モデルに外部知識を持たせるための基礎パラダイムとなっている。
このチュートリアルは、RAG(Dynamic RAG)とParametric RAG(Parametric RAG)という、急速に成長し、補完的な2つの研究領域に展開している。
論文 参考訳(メタデータ) (2025-06-07T07:59:33Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain Question Answering [115.72130322143275]
REAR(Relevance-Aware Retrieval-augmented approach for open-domain Question answering, QA)
我々は,特殊な設計のアセスメントモジュールを組み込むことで,LLMベースのRAGシステムのための新しいアーキテクチャを開発する。
オープンドメインの4つのQAタスクの実験では、REARは以前の競争力のあるRAGアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Retrieval-Augmented Generation for Large Language Models: A Survey [17.82361213043507]
大きな言語モデル(LLM)には印象的な能力があるが、幻覚のような課題に直面している。
Retrieval-Augmented Generation (RAG) は,外部データベースからの知識を取り入れた,有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-18T07:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。