論文の概要: Beyond RAG for Agent Memory: Retrieval by Decoupling and Aggregation
- arxiv url: http://arxiv.org/abs/2602.02007v1
- Date: Mon, 02 Feb 2026 12:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.129022
- Title: Beyond RAG for Agent Memory: Retrieval by Decoupling and Aggregation
- Title(参考訳): エージェントメモリのためのRAGを超えて:デカップリングとアグリゲーションによる検索
- Authors: Zhanghao Hu, Qinglin Zhu, Hanqi Yan, Yulan He, Lin Gui,
- Abstract要約: 検索は類似性マッチングを超えて移動し、代わりに潜在コンポーネントを操作するべきだと我々は主張する。
我々は、無傷ユニットの階層を構築し、検索可能な高レベルノード組織を維持するxMemoryを提案する。
- 参考スコア(独自算出の注目度): 22.803751188961865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agent memory systems often adopt the standard Retrieval-Augmented Generation (RAG) pipeline, yet its underlying assumptions differ in this setting. RAG targets large, heterogeneous corpora where retrieved passages are diverse, whereas agent memory is a bounded, coherent dialogue stream with highly correlated spans that are often duplicates. Under this shift, fixed top-$k$ similarity retrieval tends to return redundant context, and post-hoc pruning can delete temporally linked prerequisites needed for correct reasoning. We argue retrieval should move beyond similarity matching and instead operate over latent components, following decoupling to aggregation: disentangle memories into semantic components, organise them into a hierarchy, and use this structure to drive retrieval. We propose xMemory, which builds a hierarchy of intact units and maintains a searchable yet faithful high-level node organisation via a sparsity--semantics objective that guides memory split and merge. At inference, xMemory retrieves top-down, selecting a compact, diverse set of themes and semantics for multi-fact queries, and expanding to episodes and raw messages only when it reduces the reader's uncertainty. Experiments on LoCoMo and PerLTQA across the three latest LLMs show consistent gains in answer quality and token efficiency.
- Abstract(参考訳): エージェントメモリシステムは、しばしば標準的なRetrieval-Augmented Generation (RAG)パイプラインを採用するが、その基礎となる前提はこの設定で異なる。
RAGは、検索されたパスが多様である大きな、異質なコーパスをターゲットとし、エージェントメモリは、しばしば重複する高い相関のスパンを持つ、バウンドでコヒーレントな対話ストリームである。
このシフトの下では、固定されたtop-k$類似性検索は冗長なコンテキストを返す傾向があり、ポストホットプルーニングは正しい推論に必要な時間的にリンクされた前提条件を削除することができる。
我々は、検索は類似性マッチングを超えて、代わりに遅延コンポーネントを操作し、アグリゲーションに切り離す:記憶をセマンティックコンポーネントに切り離し、それらを階層に整理し、この構造を使って検索を駆動する。
メモリ分割とマージを導出するセマンティックな目的により、無傷ユニットの階層を構築し、検索可能ながら忠実な高レベルノード組織を維持するxMemoryを提案する。
推測では、xMemoryはトップダウンを検索し、マルチファクトクエリのためのコンパクトで多様なテーマとセマンティクスを選択し、読み手の不確実性を減らす場合にのみエピソードや生のメッセージに拡張する。
最新の3つのLCMを対象としたLoCoMoとPerLTQAの実験では、応答品質とトークン効率が一貫した向上を示している。
関連論文リスト
- AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - SwiftMem: Fast Agentic Memory via Query-aware Indexing [45.27116353623848]
我々は,時間的・意味的次元の特殊インデックス化によるサブ線形検索を実現する,クエリ対応のエージェントメモリシステムであるSwiftMemを提案する。
DAG-Tagインデックスは、階層的なタグ構造を通して、クエリを関連するトピックにマッピングする。
LoCoMoとLongMemEvalベンチマークの実験では、SwiftMemは最先端のベースラインに比べて47$times$高速検索を実現している。
論文 参考訳(メタデータ) (2026-01-13T02:51:04Z) - LAD-RAG: Layout-aware Dynamic RAG for Visually-Rich Document Understanding [37.12229829548839]
レイアウト対応動的RAGフレームワークであるLAD-RAGを提案する。
LAD-RAGは、レイアウト構造とページ間の依存関係をキャプチャするシンボリック文書グラフを構築する。
MMLongBench-Doc、LongDocURL、DUDE、MP-DocVQAの実験は、LAD-RAGが検索を改善し、トップkチューニングなしで平均90%以上の完全リコールを達成することを示した。
論文 参考訳(メタデータ) (2025-10-08T17:02:04Z) - Chain of Retrieval: Multi-Aspect Iterative Search Expansion and Post-Order Search Aggregation for Full Paper Retrieval [68.71038700559195]
The Chain of Retrieval (COR) is a novel repeaterative framework for full-paper search。
SCIBENCH(SCIBENCH)は、クエリと候補のための全論文の完全なコンテキストとセグメント化されたコンテキストを提供するベンチマークである。
論文 参考訳(メタデータ) (2025-07-14T08:41:53Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。