論文の概要: LEGOMem: Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation
- arxiv url: http://arxiv.org/abs/2510.04851v1
- Date: Mon, 06 Oct 2025 14:39:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.904291
- Title: LEGOMem: Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation
- Title(参考訳): LEGOMem: ワークフロー自動化のためのマルチエージェントLLMシステムのためのモジュールプロシージャメモリ
- Authors: Dongge Han, Camille Couturier, Daniel Madrigal Diaz, Xuchao Zhang, Victor Rühle, Saravan Rajmohan,
- Abstract要約: ワークフロー自動化における多エージェント大規模言語モデル(LLM)システムのためのモジュール型プロシージャメモリフレームワークであるLEGOMemを紹介する。
我々は,マルチエージェントシステムにおける手続き的メモリの体系的研究を行い,どのメモリをどこに配置すべきか,どのように取り出すべきか,どのエージェントが最も有用かを検討する。
- 参考スコア(独自算出の注目度): 20.746613323853584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce LEGOMem, a modular procedural memory framework for multi-agent large language model (LLM) systems in workflow automation. LEGOMem decomposes past task trajectories into reusable memory units and flexibly allocates them across orchestrators and task agents to support planning and execution. To explore the design space of memory in multi-agent systems, we use LEGOMem as a lens and conduct a systematic study of procedural memory in multi-agent systems, examining where memory should be placed, how it should be retrieved, and which agents benefit most. Experiments on the OfficeBench benchmark show that orchestrator memory is critical for effective task decomposition and delegation, while fine-grained agent memory improves execution accuracy. We find that even teams composed of smaller language models can benefit substantially from procedural memory, narrowing the performance gap with stronger agents by leveraging prior execution traces for more accurate planning and tool use. These results position LEGOMem as both a practical framework for memory-augmented agent systems and a research tool for understanding memory design in multi-agent workflow automation.
- Abstract(参考訳): ワークフロー自動化における多エージェント大規模言語モデル(LLM)システムのためのモジュール型プロシージャメモリフレームワークであるLEGOMemを紹介する。
LEGOMemは過去のタスクトラジェクトリを再利用可能なメモリユニットに分解し、計画と実行をサポートするためにオーケストレータとタスクエージェントに柔軟に割り当てる。
マルチエージェントシステムにおけるメモリ設計空間を探索するため、LEGOMemをレンズとして使用し、マルチエージェントシステムにおけるプロシージャメモリの体系的研究を行い、メモリの配置方法、取得方法、最も有益なエージェントについて検討する。
OfficeBenchベンチマークの実験では、オーケストレータメモリは効率的なタスクの分解とデリゲートに不可欠である一方で、きめ細かいエージェントメモリは実行精度を向上させる。
より小さな言語モデルで構成されたチームでさえ,より正確な計画とツール使用のために,以前の実行トレースを活用することで,より強力なエージェントによるパフォーマンスギャップを狭めることで,手続き的メモリから大きなメリットを享受できることが分かりました。
これらの結果は、LEGOMemをメモリ拡張エージェントシステムのための実践的なフレームワークと、マルチエージェントワークフロー自動化におけるメモリ設計を理解するための研究ツールの両方に位置づけている。
関連論文リスト
- Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [59.16831804985279]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
この制限に対処する最近の取り組みは、外部メモリバンクでLLMを増強することが多いが、既存のパイプラインのほとんどは静的で学習されている。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Memp: Exploring Agent Procedural Memory [72.41472703974935]
LLM(Large Language Models)ベースのエージェントは様々なタスクをこなすが、静的パラメータで手動で設計または絡み合うような不安定なプロシージャメモリに悩まされる。
本稿では,過去のエージェントの軌跡をステップバイステップの細粒度と高レベルなスクリプトライクな抽象化の両方に蒸留するMempを提案する。
メモリレポジトリが洗練されるにつれて、エージェントは着実に高い成功率と類似タスクの効率を達成できることを示す。
論文 参考訳(メタデータ) (2025-08-08T16:20:56Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning [41.94295877935867]
メモリは、エージェントが時間的および空間的依存関係を持つ複雑なタスクに対処できるようにするために不可欠である。
多くの強化学習アルゴリズムにはメモリが組み込まれているが、エージェントのメモリ能力を評価するための普遍的なベンチマークがない。
メモリRLの総合ベンチマークであるMIKASAを紹介する。
論文 参考訳(メタデータ) (2025-02-14T20:46:19Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。