論文の概要: Governed Memory: A Production Architecture for Multi-Agent Workflows
- arxiv url: http://arxiv.org/abs/2603.17787v1
- Date: Wed, 18 Mar 2026 14:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.764591
- Title: Governed Memory: A Production Architecture for Multi-Agent Workflows
- Title(参考訳): Governed Memory: マルチエージェントワークフローのための生産アーキテクチャ
- Authors: Hamed Taheri,
- Abstract要約: エンタープライズAIは数十の自律エージェントノードをデプロイし、それぞれが共有メモリ管理なしで同じエンティティに作用する。
このメモリガバナンスのギャップから生じる5つの構造的課題を特定します。
我々は、4つのメカニズムを通じてこのギャップに対処する共有メモリとガバナンス層であるGoverned Memoryを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Enterprise AI deploys dozens of autonomous agent nodes across workflows, each acting on the same entities with no shared memory and no common governance. We identify five structural challenges arising from this memory governance gap: memory silos across agent workflows; governance fragmentation across teams and tools; unstructured memories unusable by downstream systems; redundant context delivery in autonomous multi-step executions; and silent quality degradation without feedback loops. We present Governed Memory, a shared memory and governance layer addressing this gap through four mechanisms: a dual memory model combining open-set atomic facts with schema-enforced typed properties; tiered governance routing with progressive context delivery; reflection-bounded retrieval with entity-scoped isolation; and a closed-loop schema lifecycle with AI-assisted authoring and automated per-property refinement. We validate each mechanism through controlled experiments (N=250, five content types): 99.6% fact recall with complementary dual-modality coverage; 92% governance routing precision; 50% token reduction from progressive delivery; zero cross-entity leakage across 500 adversarial queries; 100% adversarial governance compliance; and output quality saturation at approximately seven governed memories per entity. On the LoCoMo benchmark, the architecture achieves 74.8% overall accuracy, confirming that governance and schema enforcement impose no retrieval quality penalty. The system is in production at Personize.ai.
- Abstract(参考訳): エンタープライズAIはワークフローにまたがって数十の自律的なエージェントノードをデプロイする。
エージェントワークフロー間のメモリサイロ、チームとツール間のガバナンスの断片化、下流システムで使用できない非構造化メモリ、自律的なマルチステップ実行における冗長なコンテキストデリバリ、フィードバックループなしでのサイレントな品質劣化。
Governed Memoryは、オープンセットのアトミック事実とスキーマ強化型プロパティを組み合わせた二重メモリモデル、プログレッシブコンテキストデリバリによる階層型ガバナンスルーティング、エンティティスコープによるリフレクションバウンド検索、AI支援によるオーサリングと自動パープロパリティ改善によるクローズドループスキーマライフサイクルの4つのメカニズムを通じて、このギャップに対処する共有メモリとガバナンス層を提供する。
制御された実験(N=250, 5種類のコンテンツタイプ)により、99.6%のファクトリコールと補完的な二重モードカバレッジ、92%のガバナンスルーティング精度、プログレッシブデリバリによるトークンの削減、500のクエリにわたるクロスエンタリティリークのゼロ、100%の敵のガバナンスコンプライアンス、約7つのエンティティのメモリの出力品質飽和など、それぞれのメカニズムを検証する。
LoCoMoのベンチマークでは、アーキテクチャは74.8%の精度を達成し、ガバナンスとスキーマの執行が検索品質のペナルティを課さないことを確認した。
そのシステムはPersonize.aiで生産されている。
関連論文リスト
- Memory for Autonomous LLM Agents:Mechanisms, Evaluation, and Emerging Frontiers [0.42061757959666934]
大きな言語モデル(LLM)エージェントは、単一のコンテキストウィンドウが小さすぎて何が起きているのかをキャプチャできないような環境で、ますます運用される。
メモリはステートレステキストジェネレータを真に適応的なエージェントに変える。
この調査は、メモリがどのように設計され、実装され、現代のLCMベースのエージェントで評価されるかという構造化された説明を提供する。
論文 参考訳(メタデータ) (2026-03-08T15:08:01Z) - MAPLE: A Sub-Agent Architecture for Memory, Learning, and Personalization in Agentic AI Systems [0.0]
大規模言語モデル(LLM)エージェントは複雑なタスクのための強力なツールとして登場したが、個々のユーザへの適応能力は基本的に制限されている。
現在のシステムは3つの異なるメカニズムではなく、記憶、学習、パーソナライゼーションを統一された能力として扱う。
メモリは記憶と検索のインフラを処理し、学習は蓄積された相互作用から知性を非同期に抽出し、パーソナライゼーションは有限のコンテキスト予算内で学習知識をリアルタイムで適用する。
論文 参考訳(メタデータ) (2026-02-03T03:46:39Z) - E-mem: Multi-agent based Episodic Context Reconstruction for LLM Agent Memory [4.8183840404266185]
E-memは、メモリ前処理からエピソードコンテキスト再構成に移行するフレームワークである。
E-memは54%以上のF1を達成し、最先端のGAMを7.75%上回り、トークンコストを70%以上削減している。
論文 参考訳(メタデータ) (2026-01-29T13:42:42Z) - Towards a Science of Scaling Agent Systems [79.64446272302287]
エージェント評価の定義を定式化し,エージェント量,コーディネーション構造,モデル,タスク特性の相互作用として,スケーリング法則を特徴付ける。
協調指標を用いて予測モデルを導出し,R2=0をクロスバリデーションし,未知のタスク領域の予測を可能にする。
ツールコーディネーショントレードオフ: 固定的な計算予算の下では, ツールヘビータスクはマルチエージェントのオーバーヘッドから不均衡に悩まされ, 2) 能力飽和: 調整が減少または負のリターンを, 単一エージェントのベースラインが45%を超えると達成できる。
論文 参考訳(メタデータ) (2025-12-09T06:52:21Z) - CIMemories: A Compositional Benchmark for Contextual Integrity of Persistent Memory in LLMs [62.116710797795314]
大規模言語モデル(LLM)は、パーソナライゼーションとタスクパフォーマンスを向上させるために、過去のインタラクションから永続的なメモリを使用することが多い。
タスクコンテキストに基づいて,LLMがメモリからの情報フローを適切に制御するかどうかを評価するベンチマークであるCIMemoriesを提案する。
論文 参考訳(メタデータ) (2025-11-18T21:51:23Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - OmniEAR: Benchmarking Agent Reasoning in Embodied Tasks [52.87238755666243]
OmniEARは,言語モデルが身体的相互作用やツールの使用,マルチエージェントの協調にどう影響するかを評価するためのフレームワークである。
我々は、家庭と工業領域にまたがる1500のシナリオにおける連続的な物理的特性と複雑な空間的関係をモデル化する。
我々の体系的な評価は、モデルが制約から推論しなければならない場合、厳しい性能劣化を示す。
論文 参考訳(メタデータ) (2025-08-07T17:54:15Z) - Agent KB: Leveraging Cross-Domain Experience for Agentic Problem Solving [62.71545696485824]
我々は,異種エージェントフレームワーク間のシームレスな体験共有を可能にするユニバーサルメモリ基盤であるAgent KBを紹介した。
Agent KBはトラジェクトリを構造化知識ベースに集約し、軽量APIを提供する。
我々は,GAIA,Humanity's Last Exam,GPQA,SWE-benchなどの主要フレームワークにまたがるエージェントを検証した。
論文 参考訳(メタデータ) (2025-07-08T17:59:22Z) - AutoLayout: Closed-Loop Layout Synthesis via Slow-Fast Collaborative Reasoning [102.71841660031065]
Autoは、クローズドループの自己検証プロセスをデュアルシステムフレームワークに統合する、完全に自動化された方法である。
Autoの有効性は8つの異なるシナリオで検証され、SOTA法よりも10.1%改善された。
論文 参考訳(メタデータ) (2025-07-06T08:35:22Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。