論文の概要: CraniMem: Cranial Inspired Gated and Bounded Memory for Agentic Systems
- arxiv url: http://arxiv.org/abs/2603.15642v1
- Date: Tue, 03 Mar 2026 14:00:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.333308
- Title: CraniMem: Cranial Inspired Gated and Bounded Memory for Agentic Systems
- Title(参考訳): CraniMem: エージェントシステムのための頭蓋骨誘発ゲートとバウンドメモリ
- Authors: Pearl Mody, Mihir Panchal, Rishit Kar, Kiran Bhowmick, Ruhina Karani,
- Abstract要約: エージェントシステムのための,神経認知型,ゲート型,有界な多段階メモリ設計であるCraniMemについて紹介する。
クラニメムはバニラ RAG や Mem0 のベースラインよりも頑丈で、邪魔されやすい性能低下を示す。
- 参考スコア(独自算出の注目度): 0.21748200848556345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents are increasingly deployed in long running workflows, where they must preserve user and task state across many turns. Many existing agent memory systems behave like external databases with ad hoc read/write rules, which can yield unstable retention, limited consolidation, and vulnerability to distractor content. We present CraniMem, a neurocognitively motivated, gated and bounded multi-stage memory design for agentic systems. CraniMem couples goal conditioned gating and utility tagging with a bounded episodic buffer for near term continuity and a structured long-term knowledge graph for durable semantic recall. A scheduled consolidation loop replays high utility traces into the graph while pruning low utility items, keeping memory growth in check and reducing interference. On long horizon benchmarks evaluated under both clean inputs and injected noise, CraniMem is more robust than a Vanilla RAG and Mem0 baseline and exhibits smaller performance drops under distraction. Our code is available at https://github.com/PearlMody05/Cranimem and the accompanying PyPI package at https://pypi.org/project/cranimem.
- Abstract(参考訳): 大きな言語モデル(LLM)エージェントは、長時間実行されるワークフローにますますデプロイされ、多くのターンにわたってユーザとタスクの状態を保存する必要がある。
多くの既存のエージェントメモリシステムは、アドホックな読み取り/書き込みルールを持つ外部データベースのように振る舞う。
エージェントシステムのための,神経認知型,ゲート型,有界な多段階メモリ設計であるCraniMemについて紹介する。
CraniMemは、目標条件付きゲーティングとユーティリティタグを、短期連続性のための境界付きエピソードバッファと、耐久性のあるセマンティックリコールのための構造化された長期知識グラフで結合する。
スケジュールされた統合ループは、低ユーティリティアイテムをプルーニングしながら、高いユーティリティトレースをグラフにリプレイし、メモリ成長をチェックし、干渉を減らす。
クリーンインプットとインジェクトノイズの両方で評価された長い地平線ベンチマークでは、CraniMemはVanilla RAGやMem0ベースラインよりも堅牢で、邪魔を受けることなくより小さなパフォーマンス低下を示す。
私たちのコードはhttps://github.com/PearlMody05/Cranimemで、付随するPyPIパッケージはhttps://pypi.org/project/cranimemで利用可能です。
関連論文リスト
- Hippocampus: An Efficient and Scalable Memory Module for Agentic AI [4.508092142808317]
Hippocampusは、セマンティック検索にコンパクトなバイナリシグネチャを使用するエージェント型メモリ管理システムである。
その中核はDWM(Dynamic Wavelet Matrix)であり、超高速検索をサポートするために両方のストリームを圧縮し、共同インデックスする。
評価の結果,Hippocampusはエンドツーエンドの検索遅延を最大31$times$に削減できることがわかった。
論文 参考訳(メタデータ) (2026-02-14T04:25:20Z) - When to Memorize and When to Stop: Gated Recurrent Memory for Long-Context Reasoning [50.486479460454866]
より安定かつ効率的な長文推論のための2つのテキスト制御ゲートを組み込んだGRU-Memを提案する。
GRU-Memは一般的に、最大400%の推論速度加速でバニラMemAgentを上回っている。
論文 参考訳(メタデータ) (2026-02-11T06:14:53Z) - AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - Aeon: High-Performance Neuro-Symbolic Memory Management for Long-Horizon LLM Agents [0.0]
大規模言語モデル(LLM)は、自己注意の2次計算コストと「中道の失われた」現象によって制約される。
我々は,静的ストアではなく,管理OSリソースとしてメモリを再定義するニューロシンボリック認知オペレーティングシステムであるAeonを提案する。
論文 参考訳(メタデータ) (2026-01-14T15:23:22Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Auto-scaling Continuous Memory for GUI Agent [35.84598737971337]
従来のGUIエージェントは過去のトラジェクトリをテキストトークンに圧縮する。
本稿では,各GUI軌跡を連続埋め込みの固定長列に符号化する連続メモリを提案する。
メモリサイズと検索深度が増加するにつれて、長いプロンプトで劣化するテキストメモリとは異なり、パフォーマンスは単調に向上する。
論文 参考訳(メタデータ) (2025-10-10T06:16:45Z) - ELMUR: External Layer Memory with Update/Rewrite for Long-Horizon RL [48.214881182054164]
本研究では,外部メモリを構造化したトランスアーキテクチャであるEMMURを提案する。
ELMURは、注意窓の向こうに10万倍の有効地平線を拡大する。
最大100万歩の廊下を持つ合成T-Mazeタスクで100%の成功率を達成する。
論文 参考訳(メタデータ) (2025-10-08T15:50:34Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。