論文の概要: DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router
- arxiv url: http://arxiv.org/abs/2507.22050v1
- Date: Tue, 29 Jul 2025 17:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.782235
- Title: DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router
- Title(参考訳): DeepSieve: LLM-as-a-Knowledge-Routerによる情報共有
- Authors: Minghao Guo, Qingcheng Zeng, Xujiang Zhao, Yanchi Liu, Wenchao Yu, Mengnan Du, Haifeng Chen, Wei Cheng,
- Abstract要約: 本稿では,LLM-as-a-knowledge-routerを介して情報収集を行うエージェントRAGフレームワークであるDeepSieveを紹介する。
エージェントシステム設計の最近の進歩を活用して,モジュール性,透明性,適応性を重視し,異種ソース間のマルチホップQAタスクの実験により,従来のRAG手法よりも推論深度,検索精度,解釈可能性が改善された。
- 参考スコア(独自算出の注目度): 57.28685457991806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel at many reasoning tasks but struggle with knowledge-intensive queries due to their inability to dynamically access up-to-date or domain-specific information. Retrieval-Augmented Generation (RAG) has emerged as a promising solution, enabling LLMs to ground their responses in external sources. However, existing RAG methods lack fine-grained control over both the query and source sides, often resulting in noisy retrieval and shallow reasoning. In this work, we introduce DeepSieve, an agentic RAG framework that incorporates information sieving via LLM-as-a-knowledge-router. DeepSieve decomposes complex queries into structured sub-questions and recursively routes each to the most suitable knowledge source, filtering irrelevant information through a multi-stage distillation process. Our design emphasizes modularity, transparency, and adaptability, leveraging recent advances in agentic system design. Experiments on multi-hop QA tasks across heterogeneous sources demonstrate improved reasoning depth, retrieval precision, and interpretability over conventional RAG approaches.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの推論タスクで優れていますが、最新の情報やドメイン固有の情報を動的にアクセスできないため、知識集約的なクエリに苦労しています。
Retrieval-Augmented Generation (RAG) は将来性のあるソリューションとして登場し、LCMの応答を外部ソースに基盤化することができる。
しかし、既存のRAG法はクエリ側とソース側の両方をきめ細かい制御ができず、しばしばノイズの多い検索と浅い推論をもたらす。
本稿では,LLM-as-a-knowledge-routerを介して情報収集を行うエージェントRAGフレームワークであるDeepSieveを紹介する。
DeepSieveは複雑なクエリを構造化されたサブクエリに分解し、各クエリを最も適切な知識ソースに再帰的にルートし、無関係な情報を多段階蒸留プロセスを通じてフィルタリングする。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
ヘテロジニアスソース間のマルチホップQAタスクの実験では、従来のRAG手法よりも推論深度、検索精度、解釈可能性が改善された。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Learning to Route Queries Across Knowledge Bases for Step-wise Retrieval-Augmented Reasoning [60.84901522792042]
Multimodal Retrieval-Augmented Generation (MRAG)は、マルチモーダル大言語モデル(MLLM)における幻覚の緩和を約束している。
進化する推論状態に基づいて知識をいつどこで取得するかを学習する新しいMRAGフレームワークであるR1を提案する。
R1-は多種多様なKBを適応的かつ効果的に利用でき、不要な検索を減らし、効率と精度を向上させる。
論文 参考訳(メタデータ) (2025-05-28T08:17:57Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - Knowledge-Aware Iterative Retrieval for Multi-Agent Systems [0.0]
本稿では,新しい大規模言語モデル (LLM) によるエージェントフレームワークを提案する。
動的に進化する知識を活用することで、クエリを反復的に洗練し、文脈的証拠をフィルタリングする。
提案システムは、更新されたコンテキストの競合的および協調的な共有をサポートする。
論文 参考訳(メタデータ) (2025-03-17T15:27:02Z) - Oreo: A Plug-in Context Reconstructor to Enhance Retrieval-Augmented Generation [28.568010424711563]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) の機能強化を目的としている。
生成に使用する前に検索したチャンクを洗練するために設計された,コンパクトで効率的な,プラグ可能なモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-18T16:38:39Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。