論文の概要: Beyond Static Summarization: Proactive Memory Extraction for LLM Agents
- arxiv url: http://arxiv.org/abs/2601.04463v1
- Date: Thu, 08 Jan 2026 00:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.964459
- Title: Beyond Static Summarization: Proactive Memory Extraction for LLM Agents
- Title(参考訳): 静的要約を超えて:LDMエージェントの能動的メモリ抽出
- Authors: Chengyuan Yang, Zequn Sun, Wei Wei, Wei Hu,
- Abstract要約: 我々は、既存の要約に基づく手法は、繰り返し処理理論に基づく2つの大きな制限があると主張している。
本稿では,エージェントが対話履歴を積極的に探究するために自己問合せを利用する繰り返しフィードバックループを提案する。
我々のProMemは抽出したメモリの完全性とQA精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 20.065809066468354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory management is vital for LLM agents to handle long-term interaction and personalization. Most research focuses on how to organize and use memory summary, but often overlooks the initial memory extraction stage. In this paper, we argue that existing summary-based methods have two major limitations based on the recurrent processing theory. First, summarization is "ahead-of-time", acting as a blind "feed-forward" process that misses important details because it doesn't know future tasks. Second, extraction is usually "one-off", lacking a feedback loop to verify facts, which leads to the accumulation of information loss. To address these issues, we propose proactive memory extraction (namely ProMem). Unlike static summarization, ProMem treats extraction as an iterative cognitive process. We introduce a recurrent feedback loop where the agent uses self-questioning to actively probe the dialogue history. This mechanism allows the agent to recover missing information and correct errors. Our ProMem significantly improves the completeness of the extracted memory and QA accuracy. It also achieves a superior trade-off between extraction quality and token cost.
- Abstract(参考訳): LLMエージェントが長期のインタラクションとパーソナライズを扱うためには、メモリ管理が不可欠である。
ほとんどの研究は、メモリサマリーの編成と使用方法に焦点を当てているが、初期のメモリ抽出段階を見落としていることが多い。
本稿では,既存の要約に基づく手法が,逐次処理理論に基づく2つの大きな限界を持つことを論じる。
まず、要約は "ahead-of-time" であり、将来のタスクを知らないため重要な詳細を見逃す盲目の "feed-forward" プロセスとして機能する。
第二に、抽出は通常「一発」であり、事実を検証するためのフィードバックループがないため、情報損失の蓄積につながる。
これらの問題に対処するため,プロアクティブメモリ抽出(ProMem)を提案する。
静的要約とは異なり、ProMemは抽出を反復的認知過程として扱う。
本稿では,エージェントが対話履歴を積極的に探究するために自己問合せを利用する繰り返しフィードバックループを提案する。
このメカニズムにより、エージェントは行方不明の情報を回復し、エラーを修正できる。
我々のProMemは抽出したメモリの完全性とQA精度を大幅に向上させる。
また、抽出品質とトークンコストのトレードオフも優れている。
関連論文リスト
- Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Look Back to Reason Forward: Revisitable Memory for Long-Context LLM Agents [33.617262543252494]
本稿では、メモリ履歴全体からの選択的検索を可能にするコールバック強化メモリを備えたメモリ拡張エージェントReMemR1を提案する。
また,RLMLR(Reinforcement Learning with Multi-Level Rewards)を提案する。
論文 参考訳(メタデータ) (2025-09-27T01:36:46Z) - Unable to Forget: Proactive Interference Reveals Working Memory Limits in LLMs Beyond Context Length [0.0]
人間では、そのような干渉に対する感受性は、作業記憶能力と逆の関連がある。
PI-LLMは意味論的に関連するキー-値の更新とクエリを逐次的にストリームする評価手法である。
論文 参考訳(メタデータ) (2025-06-09T19:49:11Z) - Memory-enhanced Retrieval Augmentation for Long Video Understanding [91.7163732531159]
本稿では,メモリ強化型RAGベースの新しいアプローチであるMemVidを紹介する。
提案手法は,1) 全体的映像情報の記憶,2) メモリに基づくタスクの情報要求の推論,3) 情報要求に基づくクリティカルモーメントの検索,4) 最終回答を生成するための検索モーメントの抽出という4つの基本的なステップで機能する。
MemVid は LVLM 法と RAG 法に比較して, 効率と有効性を示す。
論文 参考訳(メタデータ) (2025-03-12T08:23:32Z) - Learning to Rehearse in Long Sequence Memorization [107.14601197043308]
既存の推論タスクは、しばしば、推論中に入力内容が常にアクセス可能であるという重要な仮定を持つ。
メモリ拡張ニューラルネットワークは、人間のような書き込み読み取りメモリを導入し、1回のパスで長い入力シーケンスを圧縮し記憶する。
しかし、2つの重大な欠点がある: 1) メモリを現在の情報から継続的に更新し、必然的に初期の内容を忘れる; 2) 重要な情報を区別せず、全てのコンテンツを平等に扱う。
本稿では,履歴サンプリング装置を用いた自己教師型リハーサルによる長期記憶向上のためのリハーサルメモリを提案する。
論文 参考訳(メタデータ) (2021-06-02T11:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。