論文の概要: Chain-of-Memory: Lightweight Memory Construction with Dynamic Evolution for LLM Agents
- arxiv url: http://arxiv.org/abs/2601.14287v1
- Date: Wed, 14 Jan 2026 04:42:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.072014
- Title: Chain-of-Memory: Lightweight Memory Construction with Dynamic Evolution for LLM Agents
- Title(参考訳): チェーン・オブ・メモリ: LLMエージェントの動的進化による軽量メモリ構築
- Authors: Xiucheng Xu, Bingbing Xu, Xueyun Tian, Zihe Huang, Rongxin Chen, Yunfan Li, Huawei Shen,
- Abstract要約: 外部メモリシステムは、Large Language Model (LLM)エージェントが永続的な知識を維持し、長期にわたる意思決定を行うために重要である。
既存のパラダイムは一般に2段階のプロセスに従っている。
我々は,高度な利用と組み合わせた軽量構造へのパラダイムシフトを提唱する新しいフレームワークであるCoM(Chain-of-Memory)を提案する。
- 参考スコア(独自算出の注目度): 26.39049374286037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: External memory systems are pivotal for enabling Large Language Model (LLM) agents to maintain persistent knowledge and perform long-horizon decision-making. Existing paradigms typically follow a two-stage process: computationally expensive memory construction (e.g., structuring data into graphs) followed by naive retrieval-augmented generation. However, our empirical analysis reveals two fundamental limitations: complex construction incurs high costs with marginal performance gains, and simple context concatenation fails to bridge the gap between retrieval recall and reasoning accuracy. To address these challenges, we propose CoM (Chain-of-Memory), a novel framework that advocates for a paradigm shift toward lightweight construction paired with sophisticated utilization. CoM introduces a Chain-of-Memory mechanism that organizes retrieved fragments into coherent inference paths through dynamic evolution, utilizing adaptive truncation to prune irrelevant noise. Extensive experiments on the LongMemEval and LoCoMo benchmarks demonstrate that CoM outperforms strong baselines with accuracy gains of 7.5%-10.4%, while drastically reducing computational overhead to approximately 2.7% of token consumption and 6.0% of latency compared to complex memory architectures.
- Abstract(参考訳): 外部メモリシステムは、Large Language Model (LLM)エージェントが永続的な知識を維持し、長期にわたる意思決定を行うために重要である。
既存のパラダイムは一般的に2段階のプロセスに従う:計算に高価なメモリ構築(例えば、グラフにデータを構造化する)と、単純な検索拡張生成である。
しかし,我々の経験的分析では,複雑な構造は高いコストと限界性能を伴い,単純なコンテキスト結合は検索リコールと推論精度のギャップを埋めることに失敗する,という2つの基本的な限界が明らかになっている。
このような課題に対処するため,我々は,高度な利用と組み合わせた軽量構造へのパラダイムシフトを提唱する新しいフレームワークであるCoM(Chain-of-Memory)を提案する。
CoMは、取得した断片を動的進化を通じてコヒーレントな推論パスに整理するChain-of-Memoryメカニズムを導入している。
LongMemEval と LoCoMo のベンチマークによる大規模な実験では、CoM の精度は7.5%-10.4%向上し、計算オーバーヘッドは複雑なメモリアーキテクチャに比べて約2.7%、遅延は6.0%削減された。
関連論文リスト
- MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - SimpleMem: Efficient Lifelong Memory for LLM Agents [73.74399447715052]
セマンティックロスレス圧縮に基づく効率的なメモリフレームワークSimpleMemを紹介する。
本稿では,情報密度とトークン利用量の最大化を目的とした3段階パイプラインを提案する。
ベンチマークデータセットを用いた実験により,提案手法は精度,検索効率,推論コストにおいて,ベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2026-01-05T21:02:49Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - Overflow Prevention Enhances Long-Context Recurrent LLMs [81.71585057993074]
LLMの最近のトレンドは、長いコンテキスト処理効率を改善するために、再帰的なサブクワッドラティックモデルの開発である。
本研究では,大規模な長期コンテキストモデルにおいて,その固定サイズ再帰記憶が性能に与える影響について検討する。
実験の結果、これらのモデルが拡張コンテキストでトレーニングされている場合でも、長いコンテキストの使用は未利用のままであることが判明した。
論文 参考訳(メタデータ) (2025-05-12T17:45:05Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z) - Rethinking Token Reduction for State Space Models [47.00760373683448]
状態空間モデル(SSM)のための調整・統一されたポストトレーニングトークン削減手法を提案する。
我々のアプローチはトークンの重要性と類似性を統合し、プルーニングとマージの両方を活用する。
本手法は,Mamba-2を用いた6つのベンチマークにおいて,従来の手法と比較して平均精度を5.7%から13.1%向上させる。
論文 参考訳(メタデータ) (2024-10-16T00:06:13Z) - ThinK: Thinner Key Cache by Query-Driven Pruning [63.13363917871414]
大規模言語モデル(LLM)は自然言語処理の分野に革命をもたらし、様々なアプリケーションで前例のない性能を達成した。
本稿では,KVキャッシュのメモリ消費の非効率性に対処する長文シナリオに焦点を当てた。
我々は,最小のチャネルを選択的に切断しながら,注目重量損失を最小限に抑える新しいクエリ依存型KVキャッシュプルーニング手法であるThinKを提案する。
論文 参考訳(メタデータ) (2024-07-30T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。