論文の概要: The AI Hippocampus: How Far are We From Human Memory?
- arxiv url: http://arxiv.org/abs/2601.09113v1
- Date: Wed, 14 Jan 2026 03:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.243084
- Title: The AI Hippocampus: How Far are We From Human Memory?
- Title(参考訳): AIヒッポカンポ:人間の記憶からどこまで遠いのか?
- Authors: Zixia Jia, Jiaqi Li, Yipeng Kang, Yuxuan Wang, Tong Wu, Quansen Wang, Xiaobo Wang, Shuyi Zhang, Junzhe Shen, Qing Li, Siyuan Qi, Yitao Liang, Di He, Zilong Zheng, Song-Chun Zhu,
- Abstract要約: インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
- 参考スコア(独自算出の注目度): 77.04745635827278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory plays a foundational role in augmenting the reasoning, adaptability, and contextual fidelity of modern Large Language Models and Multi-Modal LLMs. As these models transition from static predictors to interactive systems capable of continual learning and personalized inference, the incorporation of memory mechanisms has emerged as a central theme in their architectural and functional evolution. This survey presents a comprehensive and structured synthesis of memory in LLMs and MLLMs, organizing the literature into a cohesive taxonomy comprising implicit, explicit, and agentic memory paradigms. Specifically, the survey delineates three primary memory frameworks. Implicit memory refers to the knowledge embedded within the internal parameters of pre-trained transformers, encompassing their capacity for memorization, associative retrieval, and contextual reasoning. Recent work has explored methods to interpret, manipulate, and reconfigure this latent memory. Explicit memory involves external storage and retrieval components designed to augment model outputs with dynamic, queryable knowledge representations, such as textual corpora, dense vectors, and graph-based structures, thereby enabling scalable and updatable interaction with information sources. Agentic memory introduces persistent, temporally extended memory structures within autonomous agents, facilitating long-term planning, self-consistency, and collaborative behavior in multi-agent systems, with relevance to embodied and interactive AI. Extending beyond text, the survey examines the integration of memory within multi-modal settings, where coherence across vision, language, audio, and action modalities is essential. Key architectural advances, benchmark tasks, and open challenges are discussed, including issues related to memory capacity, alignment, factual consistency, and cross-system interoperability.
- Abstract(参考訳): メモリは、現代の大規模言語モデルとマルチモーダルLLMの推論、適応性、文脈的忠実性を高める上で、基礎的な役割を果たす。
これらのモデルが静的予測器から、連続的な学習とパーソナライズド推論が可能な対話システムへと移行するにつれ、メモリ機構の組み入れは、そのアーキテクチャおよび機能進化における中心的なテーマとして現れてきた。
本研究では, LLM と MLLM におけるメモリの包括的, 構造的合成を行い, 暗黙的, 明示的, エージェント的記憶パラダイムからなる凝集性分類群に分類した。
具体的には、この調査は3つの主要なメモリフレームワークを概説している。
暗黙記憶とは、事前学習されたトランスフォーマーの内部パラメータに埋め込まれた知識を指し、記憶、連想的検索、文脈推論の能力を含んでいる。
最近の研究は、この潜伏したメモリを解釈、操作、再構成する方法を探っている。
明示メモリは、テキストコーパス、高密度ベクトル、グラフベースの構造など、動的でクエリ可能な知識表現でモデル出力を増強するために設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内の永続的、時間的に拡張されたメモリ構造を導入し、多エージェントシステムにおける長期計画、自己整合性、協調行動を促進する。
テキストを超えて、調査では、視覚、言語、音声、行動モダリティ間のコヒーレンスが不可欠であるマルチモーダル設定におけるメモリの統合を調査した。
主要なアーキテクチャの進歩、ベンチマークタスク、メモリ容量、アライメント、事実整合性、システム間の相互運用性に関する問題など、オープンな課題について議論する。
関連論文リスト
- Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI [0.6840655769002751]
エージェントメモリは大規模言語モデル(LLM)のキーイネーブラーとして登場しつつある
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
我々は、ステートレスLLMインタフェースとエージェントメモリシステムとのギャップを埋めることで、Memoriaがスケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証する。
論文 参考訳(メタデータ) (2025-12-14T13:38:06Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - A Framework for Inference Inspired by Human Memory Mechanisms [9.408704431898279]
本稿では,知覚,記憶,推論の構成要素からなるPMIフレームワークを提案する。
メモリモジュールは、ワーキングメモリと長期メモリから構成され、後者は、広範囲で複雑なリレーショナル知識と経験を維持するために、高次構造を備えている。
我々は、bAbI-20kやSolt-of-CLEVRデータセットのような質問応答タスクにおいて、一般的なTransformerとCNNモデルを改善するためにPMIを適用します。
論文 参考訳(メタデータ) (2023-10-01T08:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。