論文の概要: Leveraging LLM-Assisted Query Understanding for Live Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2506.21384v1
- Date: Thu, 26 Jun 2025 15:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.165114
- Title: Leveraging LLM-Assisted Query Understanding for Live Retrieval-Augmented Generation
- Title(参考訳): LLMを用いたライブ検索用クエリ理解の活用
- Authors: Guanting Dong, Xiaoxi Li, Yuyao Zhang, Mengjie Deng,
- Abstract要約: 実世界のライブ検索拡張生成(RAG)システムは、ノイズがありあいまいで、複数の意図を含むユーザクエリを処理する場合、課題に直面します。
本稿では,オープンドメイン環境におけるRAGシステムの堅牢性と有効性向上を目的とした新しいフレームワークであるOmni-RAGを紹介する。
- 参考スコア(独自算出の注目度): 6.62734677678023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world live retrieval-augmented generation (RAG) systems face significant challenges when processing user queries that are often noisy, ambiguous, and contain multiple intents. While RAG enhances large language models (LLMs) with external knowledge, current systems typically struggle with such complex inputs, as they are often trained or evaluated on cleaner data. This paper introduces Omni-RAG, a novel framework designed to improve the robustness and effectiveness of RAG systems in live, open-domain settings. Omni-RAG employs LLM-assisted query understanding to preprocess user inputs through three key modules: (1) Deep Query Understanding and Decomposition, which utilizes LLMs with tailored prompts to denoise queries (e.g., correcting spelling errors) and decompose multi-intent queries into structured sub-queries; (2) Intent-Aware Knowledge Retrieval, which performs retrieval for each sub-query from a corpus (i.e., FineWeb using OpenSearch) and aggregates the results; and (3) Reranking and Generation, where a reranker (i.e., BGE) refines document selection before a final response is generated by an LLM (i.e., Falcon-10B) using a chain-of-thought prompt. Omni-RAG aims to bridge the gap between current RAG capabilities and the demands of real-world applications, such as those highlighted by the SIGIR 2025 LiveRAG Challenge, by robustly handling complex and noisy queries.
- Abstract(参考訳): 実世界のライブ検索強化世代(RAG)システムは、しばしばうるさい、曖昧で、複数の意図を含むユーザクエリを処理する場合、重大な課題に直面します。
RAGは外部の知識で大きな言語モデル(LLM)を強化するが、現在のシステムは多くの場合、よりクリーンなデータでトレーニングまたは評価されるため、このような複雑な入力に苦しむ。
本稿では,オープンドメイン環境におけるRAGシステムの堅牢性と有効性向上を目的とした新しいフレームワークであるOmni-RAGを紹介する。
Omni-RAG は LLM を利用したクエリ理解を 3 つの主要なモジュールを通じてユーザ入力に導入している。(1) クエリ理解と分解(Deep Query Understanding and Decomposition)によりクエリ(例えば、スペルエラーの訂正)を識別し、マルチインテントクエリを構造化サブクエリに分解する; (2) コーパス(例えば、OpenSearch を使用したファインウェブ)から各サブクエリの検索を実行し、結果を集約する Intent-Aware Knowledge Retrieval (3) リランダ(BGE)がLLM(例えば、Falcon-10)によって最終応答が生成される前に文書の選択を洗練する。
Omni-RAGはSIGIR 2025 LiveRAG Challengeで強調されたような、現在のRAG機能と現実世界のアプリケーションの要求のギャップを埋めることを目的としており、複雑でノイズの多いクエリを堅牢に処理している。
関連論文リスト
- Insight-RAG: Enhancing LLMs with Insight-Driven Augmentation [4.390998479503661]
本稿では,インサイトに基づく文書検索のための新しいフレームワークであるInsight-RAGを提案する。
Insight-RAG の初期段階では,従来の検索手法の代わりに LLM を用いて入力クエリとタスクを解析する。
従来のRAG手法と同様に、元のクエリを抽出した洞察と統合することにより、最終的なLCMを用いて、文脈的に豊かで正確な応答を生成する。
論文 参考訳(メタデータ) (2025-03-31T19:50:27Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - Multi-Head RAG: Solving Multi-Aspect Problems with LLMs [18.581518952488093]
MRAG(Multi-Head RAG)は、マルチアスペクト文書を取得するための新しいスキームである。
MRAGは18RAGベースラインに対して設計上の優位性を示し,検索成功率の最大20%を実証的に改善した。
論文 参考訳(メタデータ) (2024-06-07T16:59:38Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。