論文の概要: FB-RAG: Improving RAG with Forward and Backward Lookup
- arxiv url: http://arxiv.org/abs/2505.17206v1
- Date: Thu, 22 May 2025 18:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.648621
- Title: FB-RAG: Improving RAG with Forward and Backward Lookup
- Title(参考訳): FB-RAG: 前方および後方ルックアップによるRAGの改善
- Authors: Kushal Chawla, Alfy Samuel, Anoop Kumar, Daben Liu,
- Abstract要約: 本稿では,FB-RAGと呼ばれる新しいフレームワークを提案する。
FB-RAGはベンチマークテストにおいてRAGとLong Contextのベースラインを一貫して上回っていることを示す。
また、FB-RAGはレイテンシを低減しながら性能を向上できることを示す。
- 参考スコア(独自算出の注目度): 4.961899585180462
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The performance of Retrieval Augmented Generation (RAG) systems relies heavily on the retriever quality and the size of the retrieved context. A large enough context ensures that the relevant information is present in the input context for the LLM, but also incorporates irrelevant content that has been shown to confuse the models. On the other hand, a smaller context reduces the irrelevant information, but it often comes at the risk of losing important information necessary to answer the input question. This duality is especially challenging to manage for complex queries that contain little information to retrieve the relevant chunks from the full context. To address this, we present a novel framework, called FB-RAG, which enhances the RAG pipeline by relying on a combination of backward lookup (overlap with the query) and forward lookup (overlap with candidate reasons and answers) to retrieve specific context chunks that are the most relevant for answering the input query. Our evaluations on 9 datasets from two leading benchmarks show that FB-RAG consistently outperforms RAG and Long Context baselines developed recently for these benchmarks. We further show that FB-RAG can improve performance while reducing latency. We perform qualitative analysis of the strengths and shortcomings of our approach, providing specific insights to guide future work.
- Abstract(参考訳): Retrieval Augmented Generation (RAG)システムの性能は、取得したコンテキストの品質とサイズに大きく依存する。
十分に大きなコンテキストは、LLMの入力コンテキストに関連情報が存在していることを保証しますが、モデルを混乱させるために表示された無関係なコンテンツも含みます。
一方、コンテキストが小さくなれば、無関係な情報が減少するが、入力された質問に答えるために必要な重要な情報が失われるリスクが伴うことが多い。
この双対性は、コンテキスト全体から関連するチャンクを取得するための情報が少ない複雑なクエリを管理するのが特に困難である。
そこで本稿では,入力クエリに最も関連性の高いコンテキストチャンクを検索するために,後方検索(クエリとオーバーラップ)と前方検索(候補とオーバーラップ)を組み合わせてRAGパイプラインを強化するFB-RAGという新しいフレームワークを提案する。
FB-RAGがRAGとLong Contextのベースラインを常に上回っていることを示す。
さらに、FB-RAGはレイテンシを低減しながら性能を向上させることができることを示す。
われわれのアプローチの強みと欠点を定性的に分析し、今後の研究を導くための具体的な洞察を提供する。
関連論文リスト
- Is Relevance Propagated from Retriever to Generator in RAG? [21.82171240511567]
RAGは外部知識を組み込むためのフレームワークであり、通常はコレクションから取得した文書の集合の形式である。
我々は、トポロジに関連のある文書からなるRAGコンテキストが下流の性能向上につながるかどうかを実証的に検討する。
論文 参考訳(メタデータ) (2025-02-20T20:21:46Z) - Long Context vs. RAG for LLMs: An Evaluation and Revisits [41.27137478456755]
本稿は、このトピックに関する最近の研究を再考し、その重要な洞察と相違点を明らかにする。
LCは、特にウィキペディアベースの質問に対して、質問応答ベンチマークにおいてRAGよりも優れていた。
また,既存の研究における文脈関連性の重要性を概観する,詳細な議論もおこなう。
論文 参考訳(メタデータ) (2024-12-27T14:34:37Z) - Don't Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks [11.053340674721005]
検索拡張世代(RAG)は,外部知識ソースを統合することで言語モデルを強化する強力なアプローチとして注目されている。
本稿では、リアルタイム検索をバイパスする代替パラダイムであるキャッシュ拡張生成(CAG)を提案する。
論文 参考訳(メタデータ) (2024-12-20T06:58:32Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。