論文の概要: MMAG: Mixed Memory-Augmented Generation for Large Language Models Applications
- arxiv url: http://arxiv.org/abs/2512.01710v1
- Date: Mon, 01 Dec 2025 14:16:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.891138
- Title: MMAG: Mixed Memory-Augmented Generation for Large Language Models Applications
- Title(参考訳): MMAG: 大規模言語モデルのための混合メモリ拡張ジェネレーション
- Authors: Stefano Zeppieri,
- Abstract要約: 大きな言語モデル(LLM)は、単一のプロンプト内でコヒーレントなテキストを生成するのに優れるが、関連性、パーソナライゼーション、拡張された相互作用間の連続性を維持するには不十分である。
本稿では, LLM エージェントのメモリを 5 つの相互作用層に整理する MMAG パターンを提案する。
我々は,Heeroの会話エージェントの実装を通じて,そのアプローチを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel at generating coherent text within a single prompt but fall short in sustaining relevance, personalization, and continuity across extended interactions. Human communication, however, relies on multiple forms of memory, from recalling past conversations to adapting to personal traits and situational context. This paper introduces the Mixed Memory-Augmented Generation (MMAG) pattern, a framework that organizes memory for LLM-based agents into five interacting layers: conversational, long-term user, episodic and event-linked, sensory and context-aware, and short-term working memory. Drawing inspiration from cognitive psychology, we map these layers to technical components and outline strategies for coordination, prioritization, and conflict resolution. We demonstrate the approach through its implementation in the Heero conversational agent, where encrypted long-term bios and conversational history already improve engagement and retention. We further discuss implementation concerns around storage, retrieval, privacy, and latency, and highlight open challenges. MMAG provides a foundation for building memory-rich language agents that are more coherent, proactive, and aligned with human needs.
- Abstract(参考訳): 大きな言語モデル(LLM)は、単一のプロンプト内でコヒーレントなテキストを生成するのに優れるが、関連性、パーソナライゼーション、拡張された相互作用間の連続性を維持するには不十分である。
しかし、人間のコミュニケーションは、過去の会話を思い出すことから、個人の特性や状況に適応することまで、様々な種類の記憶に依存している。
本稿では,LLMをベースとしたエージェントのメモリを,会話型,長期的ユーザ,エピソード型,イベントリンク型,知覚型,コンテキスト対応型,短期作業型メモリの5層に編成するMMAGパターンを提案する。
認知心理学からインスピレーションを得て、これらの層を技術要素にマッピングし、協調、優先順位付け、紛争解決のための戦略を概説する。
この手法をHeeroの会話エージェントで実装し、暗号化された長期的バイオと会話履歴が既にエンゲージメントと保持を改善していることを実証する。
ストレージ、検索、プライバシ、レイテンシに関する実装上の懸念をさらに議論し、オープンな課題を強調します。
MMAGは、より一貫性があり、プロアクティブで、人間の要求に適合した、メモリリッチな言語エージェントを構築するための基盤を提供する。
関連論文リスト
- Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - SGMem: Sentence Graph Memory for Long-Term Conversational Agents [14.89396085814917]
チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
論文 参考訳(メタデータ) (2025-09-25T14:21:44Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models [30.48902594738911]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - MemoryBank: Enhancing Large Language Models with Long-Term Memory [7.654404043517219]
本稿では,大規模言語モデルに適した新しいメモリ機構であるMemoryBankを提案する。
MemoryBankは、モデルが関連するメモリを呼び出し、継続的なメモリ更新を通じて継続的に進化し、過去のインタラクションから情報を合成することで、ユーザの個性に適応することを可能にする。
論文 参考訳(メタデータ) (2023-05-17T14:40:29Z) - Vision-Dialog Navigation by Exploring Cross-modal Memory [107.13970721435571]
視覚ダイアログナビゲーションは、視覚言語ディシプリナターゲットの新たな聖杯タスクとして機能する。
本稿では,歴史的ナビゲーション行動に関連する豊富な情報を記憶し,理解するためのクロスモーダルメモリネットワーク(CMN)を提案する。
私たちのCMNは、従来の最先端モデルよりも、目に見える環境と目に見えない環境の両方で大きな差があります。
論文 参考訳(メタデータ) (2020-03-15T03:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。