論文の概要: MemEngine: A Unified and Modular Library for Developing Advanced Memory of LLM-based Agents
- arxiv url: http://arxiv.org/abs/2505.02099v1
- Date: Sun, 04 May 2025 13:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.424138
- Title: MemEngine: A Unified and Modular Library for Developing Advanced Memory of LLM-based Agents
- Title(参考訳): MemEngine: LLMベースのエージェントの高度なメモリを開発するための統一されたモジュールライブラリ
- Authors: Zeyu Zhang, Quanyu Dai, Xu Chen, Rui Li, Zhongyang Li, Zhenhua Dong,
- Abstract要約: 大規模言語モデルベース(LLMベース)エージェントは様々な分野に広く応用されている。
最近の研究で多くの先進記憶モデルが提案されているが、一般的なフレームワークの下では統一された実装が不足している。
We developed a unified and modular library for developing Advanced memory model of LLM-based agent, called MemEngine。
- 参考スコア(独自算出の注目度): 26.333660603368514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large language model based (LLM-based) agents have been widely applied across various fields. As a critical part, their memory capabilities have captured significant interest from both industrial and academic communities. Despite the proposal of many advanced memory models in recent research, however, there remains a lack of unified implementations under a general framework. To address this issue, we develop a unified and modular library for developing advanced memory models of LLM-based agents, called MemEngine. Based on our framework, we implement abundant memory models from recent research works. Additionally, our library facilitates convenient and extensible memory development, and offers user-friendly and pluggable memory usage. For benefiting our community, we have made our project publicly available at https://github.com/nuster1128/MemEngine.
- Abstract(参考訳): 近年,大規模言語モデルベース (LLM ベース) エージェントが様々な分野に広く適用されている。
重要な部分として、その記憶能力は、産業コミュニティと学術コミュニティの両方から大きな関心を集めている。
しかし、最近の研究で多くの先進記憶モデルが提案されているにもかかわらず、一般的なフレームワークの下では統一された実装が不足している。
この問題に対処するため,我々は,MemEngineと呼ばれるLCMベースのエージェントの高度なメモリモデルを開発するための,統一的でモジュール化されたライブラリを開発した。
本フレームワークでは,最近の研究成果から豊富なメモリモデルを実装している。
さらに,我々のライブラリは,便利で拡張可能なメモリ開発を容易にし,ユーザフレンドリでプラグイン可能なメモリ利用を提供する。
コミュニティの利益のために、当社のプロジェクトはhttps://github.com/nuster1128/MemEngine.comで公開されています。
関連論文リスト
- A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - MA-LMM: Memory-Augmented Large Multimodal Model for Long-Term Video Understanding [66.56100008577134]
本研究は,長期的映像理解のための効率的かつ効果的なモデルの設計に焦点を当てる。
我々は,過去の映像情報をメモリバンクに格納し,オンラインで動画を処理することを提案する。
我々のモデルは、複数のデータセットにわたって最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-04-08T17:59:24Z) - MEMORYLLM: Towards Self-Updatable Large Language Models [101.3777486749529]
既存のLarge Language Models (LLM) は通常、デプロイ後も静的のままである。
本稿では,変圧器と固定サイズのメモリプールを備えたモデルMEMORYLLMを紹介する。
MEMORYLLMは、テキスト知識を自己更新し、早期に注入された知識を記憶することができる。
論文 参考訳(メタデータ) (2024-02-07T07:14:11Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。