論文の概要: EvoMem: Improving Multi-Agent Planning with Dual-Evolving Memory
- arxiv url: http://arxiv.org/abs/2511.01912v1
- Date: Sat, 01 Nov 2025 01:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.584888
- Title: EvoMem: Improving Multi-Agent Planning with Dual-Evolving Memory
- Title(参考訳): EvoMem: デュアル進化メモリによるマルチエージェント計画の改善
- Authors: Wenzhe Fan, Ning Yan, Masood Mortazavi,
- Abstract要約: 本稿では,デュアル進化メモリ機構上に構築されたマルチエージェントフレームワークであるEvoMemを紹介する。
旅行計画、会議計画、カレンダースケジューリングにおける一貫したパフォーマンス改善を示す。
この成功は、マルチエージェント計画の強化におけるメモリの重要性を強調している。
- 参考スコア(独自算出の注目度): 2.9578217823740065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Planning has been a cornerstone of artificial intelligence for solving complex problems, and recent progress in LLM-based multi-agent frameworks have begun to extend this capability. However, the role of human-like memory within these frameworks remains largely unexplored. Understanding how agents coordinate through memory is critical for natural language planning, where iterative reasoning, constraint tracking, and error correction drive the success. Inspired by working memory model in cognitive psychology, we present EvoMem, a multi-agent framework built on a dual-evolving memory mechanism. The framework consists of three agents (Constraint Extractor, Verifier, and Actor) and two memory modules: Constraint Memory (CMem), which evolves across queries by storing task-specific rules and constraints while remains fixed within a query, and Query-feedback Memory (QMem), which evolves within a query by accumulating feedback across iterations for solution refinement. Both memory modules are reset at the end of each query session. Evaluations on trip planning, meeting planning, and calendar scheduling show consistent performance improvements, highlighting the effectiveness of EvoMem. This success underscores the importance of memory in enhancing multi-agent planning.
- Abstract(参考訳): 複雑な問題を解決するために、計画は人工知能の基盤となり、LLMベースのマルチエージェントフレームワークの最近の進歩により、この機能が拡張され始めている。
しかしながら、これらのフレームワークにおけるヒューマンライクな記憶の役割はほとんど解明されていない。
エージェントがメモリを介してどのようにコーディネートするかを理解することは、反復的推論、制約追跡、エラー修正が成功を駆動する自然言語計画にとって重要である。
認知心理学におけるワーキングメモリモデルから着想を得たEvoMemは、二重進化記憶機構上に構築されたマルチエージェントフレームワークである。
フレームワークは3つのエージェント(Constraint Extractor、Verifier、Actor)と2つのメモリモジュールで構成されている: Constraint Memory(CMem)は、クエリ内で固定されているタスク固有のルールと制約を格納することでクエリ間で進化するConstraint Memory(CMem)と、ソリューションリファインメントのイテレーション間でフィードバックを蓄積してクエリ内で進化するQuery-feedback Memory(QMem)である。
どちらのメモリモジュールも、クエリセッションの最後にリセットされる。
旅行計画、会議計画、カレンダースケジューリングの評価は、一貫性のあるパフォーマンス改善を示し、EvoMemの有効性を強調している。
この成功は、マルチエージェント計画の強化におけるメモリの重要性を強調している。
関連論文リスト
- CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - G-Memory: Tracing Hierarchical Memory for Multi-Agent Systems [44.844636264484905]
大規模言語モデル (LLM) を利用したマルチエージェントシステム (MAS) は、単一のLLMエージェントよりもはるかに高い認知と実行能力を示している。
組織記憶理論に触発されたMASのための階層型エージェントメモリシステムG-Memoryを紹介する。
Gメモリは、インボディードアクションの成功率と知識QAの精度を、それぞれ20.89%$と10.12%$で改善する。
論文 参考訳(メタデータ) (2025-06-09T03:43:46Z) - CAIM: Development and Evaluation of a Cognitive AI Memory Framework for Long-Term Interaction with Intelligent Agents [1.6082737760346446]
大規模言語モデル(LLM)は人工知能(AI)の分野を進歩させ、インタラクティブシステムのための強力なイネーブラーとなっている。
ユーザに対して適応する必要のある長期的なインタラクションや、常に変化する環境のコンテキスト的知識や理解において、依然として課題に直面しています。
これらの課題を克服するためには、インタラクションセッション間で関連情報を効率的に検索し保存するために、全体論的メモリモデリングが必要である。
コンピュータ化されたモデルで人間の思考プロセスをシミュレートすることを目的とした認知AIは、思考、記憶機構、意思決定といった興味深い側面を強調している。
論文 参考訳(メタデータ) (2025-05-19T12:33:52Z) - Memory Sharing for Large Language Model based Agents [43.53494041932615]
本稿では,リアルタイムメモリフィルタ,ストレージ,検索を統合し,In-Context学習プロセスを強化するためのフレームワークであるMemory Sharingを紹介する。
実験の結果,MSフレームワークはオープンな質問に対処する際のエージェントの性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-04-15T17:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。