論文の概要: Retrieval Feedback Memory Enhancement Large Model Retrieval Generation Method
- arxiv url: http://arxiv.org/abs/2508.17862v1
- Date: Mon, 25 Aug 2025 10:13:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.724821
- Title: Retrieval Feedback Memory Enhancement Large Model Retrieval Generation Method
- Title(参考訳): 検索フィードバックメモリ強化大モデル検索生成法
- Authors: Leqian Li, Dianxi Shi, Jialu Zhou, Xinyu Wei, Mingyue Yang, Songchang Jin, Shaowu Yang,
- Abstract要約: 大規模言語モデル(LLM)は、制約付きパラメトリック知識や高いリトレーニングコストといった固有の制約に直面します。
検索フィードバックとメモリ検索拡張生成(RFM-RAG)を提案する。
RFM-RAGは, 動的エビデンスプールを構築することにより, 従来手法のステートレス検索をステートフルな継続的知識管理に変換する。
- 参考スコア(独自算出の注目度): 10.654167904580838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown remarkable capabilities across diverse tasks, yet they face inherent limitations such as constrained parametric knowledge and high retraining costs. Retrieval-Augmented Generation (RAG) augments the generation process by retrieving externally stored knowledge absent from the models internal parameters. However, RAG methods face challenges such as information loss and redundant retrievals during multi-round queries, accompanying the difficulties in precisely characterizing knowledge gaps for complex tasks. To address these problems, we propose Retrieval Feedback and Memory Retrieval Augmented Generation(RFM-RAG), which transforms the stateless retrieval of previous methods into stateful continuous knowledge management by constructing a dynamic evidence pool. Specifically, our method generates refined queries describing the models knowledge gaps using relational triples from questions and evidence from the dynamic evidence pool; Retrieves critical external knowledge to iteratively update this evidence pool; Employs a R-Feedback Model to evaluate evidence completeness until convergence. Compared to traditional RAG methods, our approach enables persistent storage of retrieved passages and effectively distills key information from passages to construct clearly new queries. Experiments on three public QA benchmarks demonstrate that RFM-RAG outperforms previous methods and improves overall system accuracy.
- Abstract(参考訳): 大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示しているが、制約付きパラメトリック知識や高い再訓練コストといった固有の制限に直面している。
Retrieval-Augmented Generation (RAG) は、モデルの内部パラメータが存在しない外部に格納された知識を取得することで、生成プロセスを強化する。
しかし、RAG法は、複雑なタスクの知識ギャップを正確に特徴づけることの難しさを伴って、多ラウンドクエリにおける情報損失や冗長な検索といった課題に直面している。
これらの問題に対処するため、動的エビデンスプールを構築することにより、従来の手法のステートレス検索をステートフルな継続的知識管理に変換するRetrieval Feedback and Memory Retrieval Augmented Generation (RFM-RAG)を提案する。
具体的には、動的エビデンスプールからの質問や証拠からリレーショナルトリプルを用いたモデル知識ギャップを記述した洗練されたクエリを生成し、このエビデンスプールを反復的に更新するために重要な外部知識を検索し、R-Feedbackモデルを用いて、収束までのエビデンス完全性を評価する。
従来のRAG法と比較して,提案手法は検索したパスを永続的に保存し,パスからキー情報を効果的に蒸留し,明確な新しいクエリを構築する。
3つの公開QAベンチマークの実験では、RFM-RAGは従来の手法より優れ、システム全体の精度が向上している。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Towards Adaptive Memory-Based Optimization for Enhanced Retrieval-Augmented Generation [3.294519547931054]
Retrieval-Augmented Generation (RAG)は、外部知識ベースからの非パラメトリック知識をモデルに統合する。
既存のRAGメソッドは、オープンドメイン質問回答(QA)タスクに苦労する。
オープンドメインQAタスクのための拡張RAGのための適応メモリベースの最適化を提案する。
論文 参考訳(メタデータ) (2025-02-19T04:23:12Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Retrieval-Augmented Generation by Evidence Retroactivity in LLMs [19.122314663040726]
Retroactive Retrieval-Augmented Generation(Retroactive Retrieval-Augmented Generation)は、レトロアクティブ推論パラダイムを構築するための新しいフレームワークである。
RetroRAGは証拠を修正・更新し、推論チェーンを正しい方向にリダイレクトする。
経験的評価は、RetroRAGが既存の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2025-01-07T08:57:42Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。