論文の概要: PlugMem: A Task-Agnostic Plugin Memory Module for LLM Agents
- arxiv url: http://arxiv.org/abs/2603.03296v1
- Date: Fri, 06 Feb 2026 18:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.120343
- Title: PlugMem: A Task-Agnostic Plugin Memory Module for LLM Agents
- Title(参考訳): PlugMem: LLMエージェントのためのタスク非依存のプラグインメモリモジュール
- Authors: Ke Yang, Zixi Chen, Xuan He, Jize Jiang, Michel Galley, Chenglong Wang, Jianfeng Gao, Jiawei Han, ChengXiang Zhai,
- Abstract要約: タスク固有の再設計なしに任意のLLMエージェントにアタッチ可能なタスク非依存メモリモジュールであるPlugMemを提案する。
意思決定関連情報が生の経験よりも抽象的な知識として集中しているという事実に感銘されて、認識科学に焦点をあてて、エピソード記憶をコンパクトで知識中心の記憶グラフに構造化する。
PlugMemを3つのベンチマーク(長期会話型質問応答、マルチホップ知識検索、Webエージェントタスク)で評価する。
- 参考スコア(独自算出の注目度): 74.4491017652226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-term memory is essential for large language model (LLM) agents operating in complex environments, yet existing memory designs are either task-specific and non-transferable, or task-agnostic but less effective due to low task-relevance and context explosion from raw memory retrieval. We propose PlugMem, a task-agnostic plugin memory module that can be attached to arbitrary LLM agents without task-specific redesign. Motivated by the fact that decision-relevant information is concentrated as abstract knowledge rather than raw experience, we draw on cognitive science to structure episodic memories into a compact, extensible knowledge-centric memory graph that explicitly represents propositional and prescriptive knowledge. This representation enables efficient memory retrieval and reasoning over task-relevant knowledge, rather than verbose raw trajectories, and departs from other graph-based methods like GraphRAG by treating knowledge as the unit of memory access and organization instead of entities or text chunks. We evaluate PlugMem unchanged across three heterogeneous benchmarks (long-horizon conversational question answering, multi-hop knowledge retrieval, and web agent tasks). The results show that PlugMem consistently outperforms task-agnostic baselines and exceeds task-specific memory designs, while also achieving the highest information density under a unified information-theoretic analysis. Code and data are available at https://github.com/TIMAN-group/PlugMem.
- Abstract(参考訳): 長期記憶は複雑な環境で動作する大規模言語モデル (LLM) エージェントにとって不可欠であるが、既存のメモリ設計はタスク固有か非伝達可能か、あるいはタスク非依存かのどちらかである。
タスク固有の再設計なしに任意のLLMエージェントにアタッチ可能な,タスクに依存しないプラグインメモリモジュールであるPlugMemを提案する。
決定関連情報が生の経験よりも抽象的な知識として集中しているという事実に触発され、認識科学に基づいて、命題的知識と規範的知識を明確に表すコンパクトで拡張可能な知識中心の記憶グラフを構築する。
この表現は、生の軌跡を冗長にするのではなく、タスク関連知識よりも効率的なメモリ検索と推論を可能にし、知識をエンティティやテキストチャンクではなく、メモリアクセスの単位として扱うことにより、GraphRAGのようなグラフベースの他の手法から離れる。
PlugMemを3つの異種ベンチマーク(長軸対話型質問応答,マルチホップ知識検索,Webエージェントタスク)で評価した。
この結果から,PlugMemはタスク非依存のベースラインを一貫して上回り,タスク固有のメモリ設計を超越すると同時に,統合情報理論解析の下で最高の情報密度を達成できることがわかった。
コードとデータはhttps://github.com/TIMAN-group/PlugMem.comで公開されている。
関連論文リスト
- Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。