論文の概要: HiMeS: Hippocampus-inspired Memory System for Personalized AI Assistants
- arxiv url: http://arxiv.org/abs/2601.06152v1
- Date: Tue, 06 Jan 2026 05:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.618671
- Title: HiMeS: Hippocampus-inspired Memory System for Personalized AI Assistants
- Title(参考訳): HiMeS:HippocampusにインスパイアされたパーソナルAIアシスタントのためのメモリシステム
- Authors: Hailong Li, Feifei Li, Wenhui Que, Xingyu Fan,
- Abstract要約: 短期記憶と長期記憶を融合したAI補助アーキテクチャであるHiMeSを提案する。
短期記憶と長期記憶を融合したAI補助アーキテクチャであるHiMeSを提案する。
- 参考スコア(独自算出の注目度): 7.477189210398971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) power many interactive systems such as chatbots, customer-service agents, and personal assistants. In knowledge-intensive scenarios requiring user-specific personalization, conventional retrieval-augmented generation (RAG) pipelines exhibit limited memory capacity and insufficient coordination between retrieval mechanisms and user-specific conversational history, leading to redundant clarification, irrelevant documents, and degraded user experience. Inspired by the hippocampus-neocortex memory mechanism, we propose HiMeS, an AI-assistant architecture that fuses short-term and long-term memory. Our contributions are fourfold: (1) A short-term memory extractor is trained end-to-end with reinforcement learning to compress recent dialogue and proactively pre-retrieve documents from the knowledge base, emulating the cooperative interaction between the hippocampus and prefrontal cortex. (2) A partitioned long-term memory network stores user-specific information and re-ranks retrieved documents, simulating distributed cortical storage and memory reactivation. (3) On a real-world industrial dataset, HiMeS significantly outperforms a cascaded RAG baseline on question-answering quality. (4) Ablation studies confirm the necessity of both memory modules and suggest a practical path toward more reliable, context-aware, user-customized LLM-based assistants.
- Abstract(参考訳): 大規模言語モデル(LLM)は、チャットボット、カスタマーサービスエージェント、パーソナルアシスタントなど、多くの対話型システムに電力を供給する。
ユーザ固有のパーソナライゼーションを必要とする知識集約的なシナリオでは、従来の検索拡張生成(RAG)パイプラインは、メモリ容量が制限され、検索機構とユーザ固有の会話履歴の調整が不十分である。
短期記憶と長期記憶を融合したAI補助アーキテクチャであるHiMeSを提案する。
1) 短期記憶抽出装置は, 最近の対話を圧縮し, 海馬と前頭前皮質の協調的相互作用をエミュレートして, 知識ベースから積極的に文書を検索するために, 強化学習を用いてエンドツーエンドに訓練される。
2) 分割長期記憶ネットワークは, ユーザ固有の情報を記憶し, 検索した文書を再ランクし, 分散皮質記憶とメモリ再活性化をシミュレートする。
3) 実世界の産業データセットでは,HiMeSは質問応答品質のRAGベースラインを著しく上回っている。
(4)Ablation研究は、両方のメモリモジュールの必要性を確認し、より信頼性が高く、コンテキスト対応で、ユーザカスタマイズされたLCMベースのアシスタントへの実践的な道のりを示唆している。
関連論文リスト
- Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI [0.6840655769002751]
エージェントメモリは大規模言語モデル(LLM)のキーイネーブラーとして登場しつつある
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
我々は、ステートレスLLMインタフェースとエージェントメモリシステムとのギャップを埋めることで、Memoriaがスケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証する。
論文 参考訳(メタデータ) (2025-12-14T13:38:06Z) - MMAG: Mixed Memory-Augmented Generation for Large Language Models Applications [0.0]
大きな言語モデル(LLM)は、単一のプロンプト内でコヒーレントなテキストを生成するのに優れるが、関連性、パーソナライゼーション、拡張された相互作用間の連続性を維持するには不十分である。
本稿では, LLM エージェントのメモリを 5 つの相互作用層に整理する MMAG パターンを提案する。
我々は,Heeroの会話エージェントの実装を通じて,そのアプローチを実証する。
論文 参考訳(メタデータ) (2025-12-01T14:16:57Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。