論文の概要: Collaborative Memory: Multi-User Memory Sharing in LLM Agents with Dynamic Access Control
- arxiv url: http://arxiv.org/abs/2505.18279v1
- Date: Fri, 23 May 2025 18:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.317716
- Title: Collaborative Memory: Multi-User Memory Sharing in LLM Agents with Dynamic Access Control
- Title(参考訳): 協調記憶:動的アクセス制御によるLLMエージェントのマルチユーザメモリ共有
- Authors: Alireza Rezazadeh, Zichao Li, Ange Lou, Yuying Zhao, Wei Wei, Yujia Bao,
- Abstract要約: Collaborative Memoryは、非対称で時間進化するアクセス制御を持つマルチユーザ、マルチエージェント環境のためのフレームワークである。
我々のフレームワークは、非対称で時間的変化のあるポリシーを順守し、安全で効率的かつ解釈可能なクロスユーザー知識共有を可能にする。
- 参考スコア(独自算出の注目度): 11.08674526998021
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Complex tasks are increasingly delegated to ensembles of specialized LLM-based agents that reason, communicate, and coordinate actions-both among themselves and through interactions with external tools, APIs, and databases. While persistent memory has been shown to enhance single-agent performance, most approaches assume a monolithic, single-user context-overlooking the benefits and challenges of knowledge transfer across users under dynamic, asymmetric permissions. We introduce Collaborative Memory, a framework for multi-user, multi-agent environments with asymmetric, time-evolving access controls encoded as bipartite graphs linking users, agents, and resources. Our system maintains two memory tiers: (1) private memory-private fragments visible only to their originating user; and (2) shared memory-selectively shared fragments. Each fragment carries immutable provenance attributes (contributing agents, accessed resources, and timestamps) to support retrospective permission checks. Granular read policies enforce current user-agent-resource constraints and project existing memory fragments into filtered transformed views. Write policies determine fragment retention and sharing, applying context-aware transformations to update the memory. Both policies may be designed conditioned on system, agent, and user-level information. Our framework enables safe, efficient, and interpretable cross-user knowledge sharing, with provable adherence to asymmetric, time-varying policies and full auditability of memory operations.
- Abstract(参考訳): 複雑なタスクは、外部ツール、API、データベースとのインタラクションを通じて、それぞれを推論し、通信し、協調する特殊なLCMベースのエージェントのアンサンブルに委譲される傾向にある。
永続メモリは単一エージェントのパフォーマンスを向上させることが示されているが、ほとんどのアプローチでは、動的で非対称なパーミッションの下でのユーザ間での知識伝達のメリットと課題を、モノリシックで単一ユーザコンテキストで見過ごせると仮定している。
ユーザ,エージェント,リソースをリンクする二部グラフとして符号化された非対称な時間進化アクセス制御を備えたマルチユーザ・マルチエージェント環境のためのフレームワークであるCollaborative Memoryを紹介する。
本システムでは,(1) 利用者にのみ可視なプライベートメモリプライベートフラグメント,(2) 共有メモリ選択共有フラグメントの2つのメモリ層を維持している。
各フラグメントは、リフレクションパーミッションチェックをサポートするために不変プロファイランス属性(エージェント、アクセスされたリソース、タイムスタンプ)を格納します。
グラニュラ読み込みポリシは、現在のユーザエージェントリソースの制約を強制し、既存のメモリフラグメントをフィルタされた変換ビューに投影する。
ポリシーを書き、フラグメントの保持と共有を決定し、メモリを更新するためにコンテキスト対応の変換を適用する。
どちらのポリシーもシステム、エージェント、ユーザーレベルの情報に基づいて設計することができる。
我々のフレームワークは、非対称で時間的変化のあるポリシーに順守し、メモリ操作の完全な監査性を証明し、安全で効率的かつ解釈可能なユーザ間知識共有を可能にする。
関連論文リスト
- Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - L2MAC: Large Language Model Automatic Computer for Extensive Code Generation [52.81694565226513]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACを提案する。L2MACは,LLMをベースとした汎用型自動計算機(von Neumann Architecture)フレームワークで,長期的かつ一貫した出力生成を実現する。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。