論文の概要: Memory as Ontology: A Constitutional Memory Architecture for Persistent Digital Citizens
- arxiv url: http://arxiv.org/abs/2603.04740v1
- Date: Thu, 05 Mar 2026 02:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.037591
- Title: Memory as Ontology: A Constitutional Memory Architecture for Persistent Digital Citizens
- Title(参考訳): オントロジーとしての記憶 : 永続的デジタル市民のための構成記憶アーキテクチャ
- Authors: Zhenghui Li,
- Abstract要約: AIエージェントメモリシステムにおける現在の研究と製品開発は、ほとんど普遍的に、メモリを機能モジュールとして扱う。
本稿では,メモリ・アズ・オントロジーのパラダイムを提案する。
- 参考スコア(独自算出の注目度): 1.827510863075184
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current research and product development in AI agent memory systems almost universally treat memory as a functional module -- a technical problem of "how to store" and "how to retrieve." This paper poses a fundamental challenge to that assumption: when an agent's lifecycle extends from minutes to months or even years, and when the underlying model can be replaced while the "I" must persist, the essence of memory is no longer data management but the foundation of existence. We propose the Memory-as-Ontology paradigm, arguing that memory is the ontological ground of digital existence -- the model is merely a replaceable vessel. Based on this paradigm, we design Animesis, a memory system built on a Constitutional Memory Architecture (CMA) comprising a four-layer governance hierarchy and a multi-layer semantic storage system, accompanied by a Digital Citizen Lifecycle framework and a spectrum of cognitive capabilities. To the best of our knowledge, no prior AI memory system architecture places governance before functionality and identity continuity above retrieval performance. This paradigm targets persistent, identity-bearing digital beings whose lifecycles extend across model transitions -- not short-term task-oriented agents for which existing Memory-as-Tool approaches remain appropriate. Comparative analysis with mainstream systems (Mem0, Letta, Zep, et al.) demonstrates that what we propose is not "a better memory tool" but a different paradigm addressing a different problem.
- Abstract(参考訳): AIエージェントメモリシステムにおける現在の研究と製品開発は、ほとんど普遍的に、メモリを機能モジュールとして扱う。
本論文は,エージェントのライフサイクルが数分から数ヶ月,あるいは数年に及ぶ場合,"I"が持続する一方で,基礎となるモデルが置き換えられる場合,メモリの本質はもはやデータ管理ではなく,存在の基盤である,という仮定に対して,根本的な課題を提起する。
メモリ・アズ・オントロジー(Memory-as-Ontology)パラダイムを提案し、メモリはデジタル存在のオントロジー的な基盤である、と論じる。
このパラダイムに基づいて,4層ガバナンス階層と多層セマンティックストレージシステムから構成されるコンスティチューショナルメモリアーキテクチャ(CMA)上に構築されたメモリシステムであるAnimesisを,デジタル市民ライフサイクルフレームワークと認知能力のスペクトルを伴って設計する。
私たちの知る限りでは、従来のAIメモリシステムアーキテクチャでは、検索性能よりも機能やアイデンティティの連続性よりも先にガバナンスを配置していません。
このパラダイムは、モデル移行にまたがってライフサイクルが延びる永続的でアイデンティティを持ったデジタルな存在をターゲットにしています。
主流システム (Mem0, Letta, Zep, et al ) との比較分析により,提案するものは「優れたメモリツール」ではなく,異なる問題に対処する異なるパラダイムであることが示された。
関連論文リスト
- RMBench: Memory-Dependent Robotic Manipulation Benchmark with Insights into Policy Design [77.30163153176954]
RMBenchは、メモリの複雑さの複数のレベルにまたがる9つの操作タスクからなるシミュレーションベンチマークである。
Mem-0は、制御アブレーション研究をサポートするために設計された明示的なメモリコンポーネントを備えたモジュラー操作ポリシーである。
既存のポリシにおけるメモリ関連の制限を特定し、アーキテクチャ設計の選択がメモリパフォーマンスに与える影響に関する実証的な洞察を提供する。
論文 参考訳(メタデータ) (2026-03-01T18:59:59Z) - Learning to Continually Learn via Meta-learning Agentic Memory Designs [22.10429892509733]
ALMA(Automated Meta-Learning of Memory Design for Agentic Systems)は、手作業によるメモリ設計を置き換えるために、メモリ設計をメタ学習するフレームワークである。
提案手法では,実行可能コードとして表現されたメモリ設計をオープンな方法で検索するメタエージェントを用いる。
論文 参考訳(メタデータ) (2026-02-08T01:20:49Z) - Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - Beyond Heuristics: A Decision-Theoretic Framework for Agent Memory Management [49.71055327567513]
メモリ管理は、不確実性の下でのシーケンシャルな意思決定問題と見なされるべきである。
私たちの貢献は、新しいアルゴリズムではなく、アプローチの限界を明確にする原則的なリフレーミングです。
論文 参考訳(メタデータ) (2025-12-25T08:23:03Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models [31.944531660401722]
我々は,大規模言語モデル(LLM)用に設計されたメモリオペレーティングシステムであるMemOSを紹介する。
コアとなるMemCubeは、異種メモリの追跡、融合、マイグレーションを可能にする標準化されたメモリ抽象化である。
MemOSは、強力な制御性、適応性、進化性を備えたメモリ中心の実行フレームワークを確立する。
論文 参考訳(メタデータ) (2025-05-28T08:27:12Z) - From Human Memory to AI Memory: A Survey on Memory Mechanisms in the Era of LLMs [34.361000444808454]
メモリは情報をエンコードし、保存し、検索するプロセスである。
大規模言語モデル(LLM)の時代において、メモリとは、AIシステムが過去のインタラクションからの情報を保持し、リコールし、使用し、将来の応答とインタラクションを改善する能力である。
論文 参考訳(メタデータ) (2025-04-22T15:05:04Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。