論文の概要: Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI
- arxiv url: http://arxiv.org/abs/2512.12686v1
- Date: Sun, 14 Dec 2025 13:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.381341
- Title: Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI
- Title(参考訳): Memoria: パーソナライズされた会話AIのためのスケーラブルなエージェントメモリフレームワーク
- Authors: Samarth Sarin, Lovepreet Singh, Bhaskarjit Sarmah, Dhagash Mehta,
- Abstract要約: エージェントメモリは大規模言語モデル(LLM)のキーイネーブラーとして登場しつつある
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
我々は、ステートレスLLMインタフェースとエージェントメモリシステムとのギャップを埋めることで、Memoriaがスケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証する。
- 参考スコア(独自算出の注目度): 0.6840655769002751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic memory is emerging as a key enabler for large language models (LLM) to maintain continuity, personalization, and long-term context in extended user interactions, critical capabilities for deploying LLMs as truly interactive and adaptive agents. Agentic memory refers to the memory that provides an LLM with agent-like persistence: the ability to retain and act upon information across conversations, similar to how a human would. We present Memoria, a modular memory framework that augments LLM-based conversational systems with persistent, interpretable, and context-rich memory. Memoria integrates two complementary components: dynamic session-level summarization and a weighted knowledge graph (KG)-based user modelling engine that incrementally captures user traits, preferences, and behavioral patterns as structured entities and relationships. This hybrid architecture enables both short-term dialogue coherence and long-term personalization while operating within the token constraints of modern LLMs. We demonstrate how Memoria enables scalable, personalized conversational artificial intelligence (AI) by bridging the gap between stateless LLM interfaces and agentic memory systems, offering a practical solution for industry applications requiring adaptive and evolving user experiences.
- Abstract(参考訳): エージェントメモリは、拡張されたユーザインタラクションにおける継続性、パーソナライゼーション、長期コンテキストを維持するための、大規模言語モデル(LLM)のキーイネーブルとして現れています。
エージェントメモリ(gentic memory)とは、エージェントのような永続性を備えたLLMを提供するメモリのこと。
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
Memoriaは、動的セッションレベルの要約と、構造化エンティティやリレーションシップとして、ユーザの特性、好み、行動パターンを漸進的にキャプチャする、重み付き知識グラフ(KG)ベースのユーザモデリングエンジンという、2つの補完的なコンポーネントを統合している。
このハイブリッドアーキテクチャは,LLMのトークン制約内で動作しながら,短期的対話コヒーレンスと長期的パーソナライズの両方を可能にする。
我々は、MemoriaがステートレスLLMインターフェースとエージェントメモリシステムとのギャップを埋めることによって、スケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証し、適応的かつ進化的なユーザエクスペリエンスを必要とする業界アプリケーションに実用的なソリューションを提供する。
関連論文リスト
- Fixed-Persona SLMs with Modular Memory: Scalable NPC Dialogue on Consumer Hardware [0.0]
LLM(Large Language Models)は、人間のようなテキストを生成する際、顕著な能力を示したが、コンピュータゲームにおける対話システムへの適用性はまだ限られている。
本稿では,Small Language Models (SLM) を利用したモジュール型NPC対話システムを提案する。
我々のアプローチはゲーム分野のアプリケーションに動機付けられているが、モジュラー設計とペルソナ駆動のメモリアーキテクチャは、バーチャルアシスタント、カスタマーサポートボット、インタラクティブな教育システムなど、表現力のあるスケーラブルでメモリに富んだ対話エージェントを必要とする領域で広く採用される大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-11-13T13:03:37Z) - RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile [8.224917568034572]
物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
論文 参考訳(メタデータ) (2025-10-18T08:16:46Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。