論文の概要: Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents
- arxiv url: http://arxiv.org/abs/2505.19549v1
- Date: Mon, 26 May 2025 06:13:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.20376
- Title: Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents
- Title(参考訳): 多言語記憶アソシエーションと長期会話エージェントの選択に向けて
- Authors: Derong Xu, Yi Wen, Pengyue Jia, Yingyi Zhang, wenlin zhang, Yichao Wang, Huifeng Guo, Ruiming Tang, Xiangyu Zhao, Enhong Chen, Tong Xu,
- Abstract要約: 我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 73.77930932005354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have recently been widely adopted in conversational agents. However, the increasingly long interactions between users and agents accumulate extensive dialogue records, making it difficult for LLMs with limited context windows to maintain a coherent long-term dialogue memory and deliver personalized responses. While retrieval-augmented memory systems have emerged to address this issue, existing methods often depend on single-granularity memory segmentation and retrieval. This approach falls short in capturing deep memory connections, leading to partial retrieval of useful information or substantial noise, resulting in suboptimal performance. To tackle these limits, we propose MemGAS, a framework that enhances memory consolidation by constructing multi-granularity association, adaptive selection, and retrieval. MemGAS is based on multi-granularity memory units and employs Gaussian Mixture Models to cluster and associate new memories with historical ones. An entropy-based router adaptively selects optimal granularity by evaluating query relevance distributions and balancing information completeness and noise. Retrieved memories are further refined via LLM-based filtering. Experiments on four long-term memory benchmarks demonstrate that MemGAS outperforms state-of-the-art methods on both question answer and retrieval tasks, achieving superior performance across different query types and top-K settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は近年,会話エージェントに広く採用されている。
しかし,ユーザとエージェント間の長時間の対話は広範な対話記録を蓄積しているため,コンテキストウィンドウが限られているLLMでは,コヒーレントな長期対話メモリの維持や,パーソナライズされた応答の提供が困難である。
検索強化メモリシステムがこの問題に対処する一方で、既存の手法は単一粒度メモリのセグメンテーションと検索に依存していることが多い。
このアプローチは、ディープメモリ接続の取得に不足しており、有用な情報や相当なノイズを部分的に検索し、亜最適性能をもたらす。
これらの制限に対処するために,多粒度アソシエーション,適応選択,検索を構築することにより,メモリ統合を強化するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
エントロピーベースのルータは、クエリ関連性分布を評価し、情報の完全性とノイズのバランスをとることにより、最適粒度を適応的に選択する。
検索メモリはLLMベースのフィルタリングによってさらに洗練される。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端のメソッドよりも優れており、異なるクエリタイプとトップK設定で優れたパフォーマンスを実現している。
関連論文リスト
- Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z) - On Memory Construction and Retrieval for Personalized Conversational Agents [69.46887405020186]
本稿では,セグメンテーションモデルを導入し,セグメントレベルでメモリバンクを構築するセグメンテーション手法であるSeComを提案する。
実験結果から,SeComは長期会話ベンチマークLOCOMOとLong-MT-Bench+のベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-02-08T14:28:36Z) - Better RAG using Relevant Information Gain [1.5604249682593647]
大きな言語モデル(LLM)のメモリを拡張する一般的な方法は、検索拡張生成(RAG)である。
本稿では,検索結果の集合に対するクエリに関連する総情報の確率的尺度である,関連情報ゲインに基づく新しい単純な最適化指標を提案する。
RAGシステムの検索コンポーネントのドロップイン置換として使用すると、質問応答タスクにおける最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2024-07-16T18:09:21Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。