論文の概要: LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning
- arxiv url: http://arxiv.org/abs/2511.01448v1
- Date: Mon, 03 Nov 2025 11:02:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.229133
- Title: LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning
- Title(参考訳): LiCoMemory:効率的な長期推論のための軽量・認知エージェントメモリ
- Authors: Zhengjun Huang, Zhoujin Tian, Qintian Guo, Fangyuan Zhang, Yingli Zhou, Di Jiang, Xiaofang Zhou,
- Abstract要約: LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
- 参考スコア(独自算出の注目度): 15.189701702660821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) agents exhibit remarkable conversational and reasoning capabilities but remain constrained by limited context windows and the lack of persistent memory. Recent efforts address these limitations via external memory architectures, often employing graph-based representations, yet most adopt flat, entangled structures that intertwine semantics with topology, leading to redundant representations, unstructured retrieval, and degraded efficiency and accuracy. To resolve these issues, we propose LiCoMemory, an end-to-end agentic memory framework for real-time updating and retrieval, which introduces CogniGraph, a lightweight hierarchical graph that utilizes entities and relations as semantic indexing layers, and employs temporal and hierarchy-aware search with integrated reranking for adaptive and coherent knowledge retrieval. Experiments on long-term dialogue benchmarks, LoCoMo and LongMemEval, show that LiCoMemory not only outperforms established baselines in temporal reasoning, multi-session consistency, and retrieval efficiency, but also notably reduces update latency. Our official code and data are available at https://github.com/EverM0re/LiCoMemory.
- Abstract(参考訳): LLM(Large Language Model)エージェントは、会話と推論の優れた能力を示すが、限られたコンテキストウィンドウと永続メモリの欠如によって制約される。
近年の取り組みでは、外部メモリアーキテクチャによるこれらの制限に対処し、グラフベースの表現を用いることが多いが、ほとんどの場合、トポロジとセマンティクスを連動させるフラットで絡み合った構造を採用しており、冗長な表現、非構造的検索、効率と精度の低下につながっている。
これらの問題を解決するために、リアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークであるLiCoMemoryを提案する。これは、エンティティと関係をセマンティックインデックス層として利用する軽量な階層グラフであるCogniGraphを導入し、適応的および一貫性のある知識検索のための統合リグレードを備えた時間的および階層的検索を利用する。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験は、LiCoMemoryが時間的推論、マルチセッション一貫性、検索効率の確立されたベースラインを上回るだけでなく、アップデートのレイテンシも顕著に低減していることを示している。
公式コードとデータはhttps://github.com/EverM0re/LiCoMemory.comで公開しています。
関連論文リスト
- Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - LightMem: Lightweight and Efficient Memory-Augmented Generation [72.21680105265824]
我々は、メモリシステムの性能と効率のバランスをとるLightMemという新しいメモリシステムを紹介した。
人間の記憶のアトキンソン・シフリンモデルにインスパイアされたLightMemは、メモリを3つの相補的なステージにまとめる。
GPTとQwenのバックボーンを用いたLongMemEvalの実験では、LightMemは高いベースライン(最大10.9%のゲイン)を上回り、トークンの使用量を最大117倍に削減している。
論文 参考訳(メタデータ) (2025-10-21T17:58:17Z) - ArcMemo: Abstract Reasoning Composition with Lifelong LLM Memory [21.4675019810992]
概念レベルのメモリは再利用され、ソリューショントレースから抽出されたモジュラー抽象化が自然言語に格納される。
我々は、合成一般化と抽象的推論を強調するベンチマークARC-AGIを評価する。
抽象概念は最も一貫したメモリ設計であり、全てのテストされた推論計算スケールでベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-04T17:54:19Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Learning to Ignore: Long Document Coreference with Bounded Memory Neural
Networks [65.3963282551994]
我々は、すべてのエンティティをメモリに保持することは不要であると主張し、同時に少数のエンティティだけを追跡するメモリ拡張ニューラルネットワークを提案する。
a)OntoNotesとLitBankの高メモリ・計算要求モデルと競合する傾向にあり,(b)ルールベースの戦略よりも容易に効率の良いメモリ管理戦略を学習できることを示す。
論文 参考訳(メタデータ) (2020-10-06T15:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。