論文の概要: HiMem: Hierarchical Long-Term Memory for LLM Long-Horizon Agents
- arxiv url: http://arxiv.org/abs/2601.06377v1
- Date: Sat, 10 Jan 2026 01:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.781563
- Title: HiMem: Hierarchical Long-Term Memory for LLM Long-Horizon Agents
- Title(参考訳): HiMem: LLM長距離エージェントの階層的長期記憶
- Authors: Ningning Zhang, Xingxing Yang, Zhizhong Tan, Weiping Deng, Wenyong Wang,
- Abstract要約: HiMemは、長距離対話のための階層的長期記憶フレームワークである。
メモリ構築、検索、持続的なインタラクション中の動的更新をサポートする。
その結果、HiMemは、精度、一貫性、長期的な推論において、代表的ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 3.9396865837159822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although long-term memory systems have made substantial progress in recent years, they still exhibit clear limitations in adaptability, scalability, and self-evolution under continuous interaction settings. Inspired by cognitive theories, we propose HiMem, a hierarchical long-term memory framework for long-horizon dialogues, designed to support memory construction, retrieval, and dynamic updating during sustained interactions. HiMem constructs cognitively consistent Episode Memory via a Topic-Aware Event--Surprise Dual-Channel Segmentation strategy, and builds Note Memory that captures stable knowledge through a multi-stage information extraction pipeline. These two memory types are semantically linked to form a hierarchical structure that bridges concrete interaction events and abstract knowledge, enabling efficient retrieval without sacrificing information fidelity. HiMem supports both hybrid and best-effort retrieval strategies to balance accuracy and efficiency, and incorporates conflict-aware Memory Reconsolidation to revise and supplement stored knowledge based on retrieval feedback. This design enables continual memory self-evolution over long-term use. Experimental results on long-horizon dialogue benchmarks demonstrate that HiMem consistently outperforms representative baselines in accuracy, consistency, and long-term reasoning, while maintaining favorable efficiency. Overall, HiMem provides a principled and scalable design paradigm for building adaptive and self-evolving LLM-based conversational agents. The code is available at https://github.com/jojopdq/HiMem.
- Abstract(参考訳): 近年、長期記憶システムは大きな進歩を遂げているが、継続的な相互作用設定下での適応性、スケーラビリティ、自己進化の限界は明らかである。
認知理論に着想を得たHiMemを提案する。これは長期記憶のための階層的長期記憶フレームワークであり、持続的相互作用におけるメモリ構築、検索、動的更新をサポートするように設計されている。
HiMemはTopic-Aware Event-Surprise Dual-Channel Segmentation戦略を通じて認知的に一貫したエピソードメモリを構築し、マルチステージ情報抽出パイプラインを通じて安定した知識をキャプチャするNote Memoryを構築する。
これら2つのメモリタイプは意味的にリンクされ、具体的な相互作用イベントと抽象的な知識をブリッジする階層構造を形成し、情報忠実性を犠牲にすることなく効率的な検索を可能にする。
HiMemは、精度と効率のバランスをとるためにハイブリッドとベストエフォートの両方の検索戦略をサポートし、コンフリクト対応のメモリリコンソリデーションを導入し、検索フィードバックに基づいて記憶された知識を修正および補完する。
この設計により、長期使用による連続記憶の自己進化が可能となる。
長期の対話ベンチマークによる実験結果から,HiMemは精度,一貫性,長期的推論において,優れた効率を保ちながら,代表的ベースラインを一貫して上回っていることがわかった。
全体として、HiMemは適応的で自己進化的なLLMベースの会話エージェントを構築するための原則的でスケーラブルな設計パラダイムを提供する。
コードはhttps://github.com/jojopdq/HiMem.comで入手できる。
関連論文リスト
- Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - TiMem: Temporal-Hierarchical Memory Consolidation for Long-Horizon Conversational Agents [31.793564520129348]
テンポラルメモリツリー(TMT)を通して会話を整理する時間階層型メモリフレームワークTiMemを提案する。
TiMemの特徴は3つのコア特性である。(1)TMTによる時間的階層構造、(2)微調整なしで階層レベルのメモリ統合を可能にする意味誘導統合、(3)複雑さの異なるクエリ間のバランスと効率のバランスをとる複雑性認識メモリリコールである。
論文 参考訳(メタデータ) (2026-01-06T09:24:19Z) - EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning [42.339841548168565]
大きな言語モデル(LLM)は、長期の対話エージェントとしてますますデプロイされているが、その限られたコンテキストウィンドウは、拡張された相互作用よりもコヒーレントな振舞いを維持するのが困難である。
本稿では,EverMemOSについて紹介する。EverMemOSは,計算メモリにエミュレートされたライフサイクルを実装した自己組織型メモリオペレーティングシステムである。
EverMemOSは、メモリ拡張推論タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-05T14:39:43Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models [21.427373172124167]
大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
メモリ拡張型LLMアーキテクチャであるCogMemを導入する。
TurnBenchの実験では、この階層化された設計は推論の失敗を軽減し、コンテキストの成長を制御し、拡張された推論チェーン間の一貫性を改善する。
論文 参考訳(メタデータ) (2025-12-16T06:01:08Z) - MemVerse: Multimodal Memory for Lifelong Learning Agents [35.218549149012844]
我々は,モデルに依存しないプラグアンドプレイメモリフレームワークであるMemVerseを紹介した。
MemVerseは階層的検索ベースのメモリで高速パラメトリックリコールを行う。
スケーラブルで適応的なマルチモーダルインテリジェンスを実現する。
論文 参考訳(メタデータ) (2025-12-03T10:06:14Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - LongMemEval: Benchmarking Chat Assistants on Long-Term Interactive Memory [68.97819665784442]
チャットアシスタントの5つのコアメモリ能力を評価するためのベンチマークであるLongMemEvalを紹介する。
LongMemEvalは、既存の長期記憶システムにとって重要な課題である。
本稿では,長期記憶設計をインデックス化,検索,読解の3段階に分割する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:44Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。