論文の概要: Multiple Memory Systems for Enhancing the Long-term Memory of Agent
- arxiv url: http://arxiv.org/abs/2508.15294v1
- Date: Thu, 21 Aug 2025 06:29:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.211256
- Title: Multiple Memory Systems for Enhancing the Long-term Memory of Agent
- Title(参考訳): エージェントの長期記憶を強化するマルチメモリシステム
- Authors: Gaoke Zhang, Bo Wang, Yunlong Ma, Dongming Zhao, Zifei Yu,
- Abstract要約: MemoryBankやA-MEMといった既存の手法は、記憶されているメモリの質が劣っている。
我々は認知心理学理論にインスパイアされた多重記憶システムを設計した。
- 参考スコア(独自算出の注目度): 6.187602972706527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An agent powered by large language models have achieved impressive results, but effectively handling the vast amounts of historical data generated during interactions remains a challenge. The current approach is to design a memory module for the agent to process these data. However, existing methods, such as MemoryBank and A-MEM, have poor quality of stored memory content, which affects recall performance and response quality. In order to better construct high-quality long-term memory content, we have designed a multiple memory system (MMS) inspired by cognitive psychology theory. The system processes short-term memory to multiple long-term memory fragments, and constructs retrieval memory units and contextual memory units based on these fragments, with a one-to-one correspondence between the two. During the retrieval phase, MMS will match the most relevant retrieval memory units based on the user's query. Then, the corresponding contextual memory units is obtained as the context for the response stage to enhance knowledge, thereby effectively utilizing historical data. Experiments on LoCoMo dataset compared our method with three others, proving its effectiveness. Ablation studies confirmed the rationality of our memory units. We also analyzed the robustness regarding the number of selected memory segments and the storage overhead, demonstrating its practical value.
- Abstract(参考訳): 大規模言語モデルを用いたエージェントは印象的な結果を得たが、対話中に生成された膨大な履歴データを効果的に扱うことは依然として困難である。
現在のアプローチは、エージェントがこれらのデータを処理するためのメモリモジュールを設計することである。
しかし、MemoryBank や A-MEM のような既存の手法は記憶されたメモリの質が低く、リコール性能や応答品質に影響を及ぼす。
高品質な長期記憶コンテンツを構築するために,認知心理学理論に触発されたマルチメモリシステム(MMS)を設計した。
システムは、短期記憶を複数の長期記憶フラグメントに処理し、これらのフラグメントに基づいて検索メモリユニットとコンテキスト記憶ユニットを構築し、両者を1対1で対応させる。
検索フェーズの間、MMSはユーザのクエリに基づいて、最も関連性の高い検索メモリユニットにマッチする。
そして、応答ステージのコンテキストとして対応するコンテキスト記憶ユニットを取得し、知識を高め、歴史的データを効果的に活用する。
LoCoMoデータセットの実験は、我々の手法を他の3つと比較し、その効果を実証した。
アブレーション研究により、記憶ユニットの合理性が確認された。
また,選択したメモリセグメント数とストレージオーバーヘッドに関するロバスト性を解析し,その実用的価値を明らかにした。
関連論文リスト
- Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - On Memory Construction and Retrieval for Personalized Conversational Agents [69.46887405020186]
本稿では,セグメンテーションモデルを導入し,セグメントレベルでメモリバンクを構築するセグメンテーション手法であるSeComを提案する。
実験結果から,SeComは長期会話ベンチマークLOCOMOとLong-MT-Bench+のベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-02-08T14:28:36Z) - On the Structural Memory of LLM Agents [20.529239764968654]
メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-17T04:30:00Z) - MADial-Bench: Towards Real-world Evaluation of Memory-Augmented Dialogue Generation [15.64077949677469]
メモリ拡張対話システム(MADS)の有効性を評価するための新しいメモリ拡張対話ベンチマーク(MADail-Bench)を提案する。
このベンチマークは2つのタスクを別々に評価する: メモリ検索とメモリ認識は、パッシブとプロアクティブの両方のメモリリコールデータを組み込んだものである。
このベンチマークにおける最先端の埋め込みモデルと大規模言語モデルの結果は、さらなる進歩の可能性を示している。
論文 参考訳(メタデータ) (2024-09-23T17:38:41Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。