論文の概要: Multi-Agent Memory from a Computer Architecture Perspective: Visions and Challenges Ahead
- arxiv url: http://arxiv.org/abs/2603.10062v1
- Date: Mon, 09 Mar 2026 21:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.604178
- Title: Multi-Agent Memory from a Computer Architecture Perspective: Visions and Challenges Ahead
- Title(参考訳): コンピュータアーキテクチャの観点から見たマルチエージェントメモリ:ビジョンと課題
- Authors: Zhongming Yu, Naicheng Yu, Hejia Zhang, Wentao Ni, Mingrui Yin, Jiaying Yang, Yujie Zhao, Jishen Zhao,
- Abstract要約: コンピュータアーキテクチャ問題としてマルチエージェントメモリを設計する。
私たちのアーキテクチャ・フレーミングは信頼性が高くスケーラブルなマルチエージェントシステムを構築する基盤を提供します。
- 参考スコア(独自算出の注目度): 7.937610025851523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As LLM agents evolve into collaborative multi-agent systems, their memory requirements grow rapidly in complexity. This position paper frames multi-agent memory as a computer architecture problem. We distinguish shared and distributed memory paradigms, propose a three-layer memory hierarchy (I/O, cache, and memory), and identify two critical protocol gaps: cache sharing across agents and structured memory access control. We argue that the most pressing open challenge is multi-agent memory consistency. Our architectural framing provides a foundation for building reliable, scalable multi-agent systems.
- Abstract(参考訳): LLMエージェントが協調的なマルチエージェントシステムへと進化するにつれて、そのメモリ要求は急速に複雑化する。
この位置紙は、コンピュータアーキテクチャ問題としてマルチエージェントメモリをフレーム化する。
我々は、共有メモリと分散メモリのパラダイムを区別し、3層メモリ階層(I/O、キャッシュ、メモリ)を提案し、エージェント間のキャッシュ共有と構造化メモリアクセス制御という2つの重要なプロトコルギャップを特定した。
もっともオープンな課題はマルチエージェントメモリの一貫性である,と我々は主張する。
私たちのアーキテクチャ・フレーミングは信頼性が高くスケーラブルなマルチエージェントシステムを構築する基盤を提供します。
関連論文リスト
- Choosing How to Remember: Adaptive Memory Structures for LLM Agents [43.27579458682491]
メモリは、大きな言語モデル(LLM)ベースのエージェントが長い水平相互作用に対するコヒーレントな振舞いを維持するために重要である。
LLMエージェントに適応的なメモリ構成を可能にする統合フレームワークFluxMemを提案する。
PERSONAMEMとLoCoMoの2つのロングホライゾンベンチマーク実験により,本手法が平均改善率9.18%と6.14%を達成することを示した。
論文 参考訳(メタデータ) (2026-02-15T07:56:24Z) - Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - LatentMem: Customizing Latent Memory for Multi-Agent Systems [44.59989123744384]
トークン効率のよいエージェント固有のメモリをカスタマイズするための学習可能なマルチエージェントメモリフレームワークであるLatentMemを提案する。
具体的には、生の相互作用軌跡を軽量な形式で記憶する体験銀行と、検索された経験とエージェント固有の文脈に基づいて条件付けられたコンパクトな潜時記憶を合成するメモリ作曲家とを備える。
論文 参考訳(メタデータ) (2026-02-03T03:03:16Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - G-Memory: Tracing Hierarchical Memory for Multi-Agent Systems [44.844636264484905]
大規模言語モデル (LLM) を利用したマルチエージェントシステム (MAS) は、単一のLLMエージェントよりもはるかに高い認知と実行能力を示している。
組織記憶理論に触発されたMASのための階層型エージェントメモリシステムG-Memoryを紹介する。
Gメモリは、インボディードアクションの成功率と知識QAの精度を、それぞれ20.89%$と10.12%$で改善する。
論文 参考訳(メタデータ) (2025-06-09T03:43:46Z) - On the Structural Memory of LLM Agents [20.529239764968654]
メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-17T04:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。