論文の概要: From Search to Reasoning: A Five-Level RAG Capability Framework for Enterprise Data
- arxiv url: http://arxiv.org/abs/2509.21324v1
- Date: Wed, 27 Aug 2025 21:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.03214
- Title: From Search to Reasoning: A Five-Level RAG Capability Framework for Enterprise Data
- Title(参考訳): 検索から推論へ - エンタープライズデータのための5レベルRAG機能フレームワーク
- Authors: Gurbinder Gill, Ritvik Gupta, Denis Lusson, Anand Chandrashekar, Donald Nguyen,
- Abstract要約: Retrieval-Augmented Generationは、エンタープライズデータに関する質問に答えるための標準パラダイムとして登場した。
本稿では,データモダリティとタスクの複雑さに基づいた分類を行うための新しい分類フレームワーク(L1-L5)を提案する。
LangChain、Azure AI Search、OpenAI、Corvic AIの4つの最先端プラットフォームを評価します。
- 参考スコア(独自算出の注目度): 5.336176993332404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) has emerged as the standard paradigm for answering questions on enterprise data. Traditionally, RAG has centered on text-based semantic search and re-ranking. However, this approach falls short when dealing with questions beyond data summarization or non-text data. This has led to various attempts to supplement RAG to bridge the gap between RAG, the implementation paradigm, and the question answering problem that enterprise users expect it to solve. Given that contemporary RAG is a collection of techniques rather than a defined implementation, discussion of RAG and related question-answering systems benefits from a problem-oriented understanding. We propose a new classification framework (L1-L5) to categorize systems based on data modalities and task complexity of the underlying question answering problems: L1 (Surface Knowledge of Unstructured Data) through L4 (Reflective and Reasoned Knowledge) and the aspirational L5 (General Intelligence). We also introduce benchmarks aligned with these levels and evaluate four state-of-the-art platforms: LangChain, Azure AI Search, OpenAI, and Corvic AI. Our experiments highlight the value of multi-space retrieval and dynamic orchestration for enabling L1-L4 capabilities. We empirically validate our findings using diverse datasets indicative of enterprise use cases.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、企業データに関する質問に答えるための標準パラダイムとして登場した。
伝統的に、RAGはテキストベースのセマンティック検索と再ランク付けに重点を置いてきた。
しかし、データ要約や非テキストデータ以外の問題を扱う場合には、このアプローチは不十分である。
このため、RAGを補う様々な試みが行われ、RAGと実装パラダイム、そしてエンタープライズユーザーが解決を期待する問題とのギャップを埋めようとしている。
現代のRAGは、定義された実装ではなく技法の集合であることを考えると、RAGと関連する問合せシステムに関する議論は、問題指向の理解から恩恵を受ける。
L1 (Surface Knowledge of Unstructured Data) through L4 (Reflective and Reasoned Knowledge) and the Aspirational L5 (General Intelligence)。
また、これらのレベルに沿ったベンチマークを導入し、LangChain、Azure AI Search、OpenAI、Corvic AIの4つの最先端プラットフォームを評価します。
実験では,L1-L4機能を実現するためのマルチスペース検索と動的オーケストレーションの価値を強調した。
企業利用事例を示す多様なデータセットを用いて,これらの知見を実証的に検証した。
関連論文リスト
- Structured RAG for Answering Aggregative Questions [26.336930378574518]
本稿では,S-RAGを提案する。
摂取時には、S-RAGはコーパスの構造表現を構成する。
推論時には、自然言語のクエリを、その表現上の形式的なクエリに変換する。
論文 参考訳(メタデータ) (2025-11-11T17:39:34Z) - LeanRAG: Knowledge-Graph-Based Generation with Semantic Aggregation and Hierarchical Retrieval [10.566901995776025]
LeanRAGは知識集約と検索戦略を組み合わせたフレームワークです。
グラフ上のパス検索に関連するかなりのオーバーヘッドを軽減し、冗長な情報検索を最小限にする。
論文 参考訳(メタデータ) (2025-08-14T06:47:18Z) - Can we Retrieve Everything All at Once? ARM: An Alignment-Oriented LLM-based Retrieval Method [48.14236175156835]
ARMは、データオブジェクト間の関係を探索することで、データ収集の組織とよりよく一致させることを目指している。
クエリ分解の精度は最大5.2 pt、エージェントRAG(ReAct)は最大15.9 ptである。
最大5.5 pt、19.3 ptのF1マッチスコアをこれらのアプローチと比較して達成する。
論文 参考訳(メタデータ) (2025-01-30T18:07:19Z) - Multiple Abstraction Level Retrieve Augment Generation [4.516242893120263]
大規模言語モデル(LLM)を利用した検索型拡張生成(RAG)モデルは、新しいデータや知識に適応するためのより高速でコスト効率の高いソリューションを提供する。
本稿では,多文レベル,段落レベル,セクションレベル,文書レベルを含む,複数抽象レベル(MAL)のチャンクを用いた新しいRAG手法を提案する。
従来の単一レベルRAGアプローチと比較して,Glyco関連論文では,AIによるQ/A回答の正当性の評価が25.739%向上した。
論文 参考訳(メタデータ) (2025-01-28T13:49:39Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Hierarchical Retrieval-Augmented Generation Model with Rethink for Multi-hop Question Answering [24.71247954169364]
マルチホップ質問回答 (Multi-hop Question Answering, QA) は、複雑な質問を解決するために複数の情報を統合することで複雑な推論を必要とする。
既存のQAシステムは、時代遅れの情報、コンテキストウィンドウの長さ制限、精度-量トレードオフといった課題に直面する。
本稿では,Decomposer,Definer,Retriever,Filter,Summarizerの5つのキーモジュールからなる,階層型検索拡張生成モデル(HiRAG)を提案する。
論文 参考訳(メタデータ) (2024-08-20T09:29:31Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。