論文の概要: Towards Autonomous Memory Agents
- arxiv url: http://arxiv.org/abs/2602.22406v1
- Date: Wed, 25 Feb 2026 20:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.407431
- Title: Towards Autonomous Memory Agents
- Title(参考訳): 自律記憶エージェントを目指して
- Authors: Xinle Wu, Rui Zhang, Mustafa Anis Hussain, Yao Lu,
- Abstract要約: 我々は,知識を最小限のコストで獲得し,検証し,キュレートする自律記憶エージェントを提案する。
U-Memはこのアイデアを、コスト対応の知識抽出カスケードを通じて実現している。
検証可能なベンチマークと検証できないベンチマークでは、U-Memは以前のメモリベースラインを一貫して上回り、RLベースの最適化を上回ることができる。
- 参考スコア(独自算出の注目度): 8.294673275138122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent memory agents improve LLMs by extracting experiences and conversation history into an external storage. This enables low-overhead context assembly and online memory update without expensive LLM training. However, existing solutions remain passive and reactive; memory growth is bounded by information that happens to be available, while memory agents seldom seek external inputs in uncertainties. We propose autonomous memory agents that actively acquire, validate, and curate knowledge at a minimum cost. U-Mem materializes this idea via (i) a cost-aware knowledge-extraction cascade that escalates from cheap self/teacher signals to tool-verified research and, only when needed, expert feedback, and (ii) semantic-aware Thompson sampling to balance exploration and exploitation over memories and mitigate cold-start bias. On both verifiable and non-verifiable benchmarks, U-Mem consistently beats prior memory baselines and can surpass RL-based optimization, improving HotpotQA (Qwen2.5-7B) by 14.6 points and AIME25 (Gemini-2.5-flash) by 7.33 points.
- Abstract(参考訳): 近年のメモリエージェントは、経験や会話履歴を外部ストレージに抽出することで、LCMを改善している。
これにより、高価なLLMトレーニングなしで、低オーバーヘッドのコンテキストアセンブリとオンラインメモリ更新が可能になる。
しかし、既存のソリューションは受動的で反応性が保たれており、メモリの増大は入手可能な情報によって制限されている。
我々は,知識を最小限のコストで獲得し,検証し,キュレートする自律記憶エージェントを提案する。
U-Mem、このアイデアを現実化
一 安価な自習者信号からツール検証研究、必要なときに限って専門家のフィードバックまでをエスカレートするコスト対応知識抽出カスケード
(II)意味認識型トンプソンサンプリングは、記憶に対する探索と搾取のバランスを保ち、コールドスタートバイアスを軽減する。
検証可能なベンチマークと検証できないベンチマークの両方において、U-Memはメモリベースラインを常に上回り、RLベースの最適化を超え、HotpotQA(Qwen2.5-7B)を14.6ポイント、AIME25(Gemini-2.5-flash)を7.33ポイント改善した。
関連論文リスト
- Exploratory Memory-Augmented LLM Agent via Hybrid On- and Off-Policy Optimization [34.50047418642433]
強化学習で訓練された大規模言語モデルエージェントにとって、探索は依然として重要なボトルネックである。
本稿では,探索にメモリを利用するハイブリッドRLフレームワークであるExploratory Memory-Augmented On- and Off-Policy Optimization (EMPO$2$)を提案する。
ScienceWorldとWebShopでは、EMPO$2$はそれぞれ128.6%、GRPOよりも11.3%改善している。
論文 参考訳(メタデータ) (2026-02-26T13:50:57Z) - MetaMem: Evolving Meta-Memory for Knowledge Utilization through Self-Reflective Symbolic Optimization [57.17751568928966]
自己進化型メタメモリでメモリシステムを拡張するフレームワークであるMetaMemを提案する。
メタメモリ最適化の間、MetaMemは異なるタスク間で伝達可能な知識利用経験を反復的に蒸留する。
大規模な実験ではMetaMemの有効性が示され、これは強いベースラインを3.6%以上上回っている。
論文 参考訳(メタデータ) (2026-01-27T04:46:23Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Memento: Fine-tuning LLM Agents without Fine-tuning LLMs [36.3424780932712]
本稿では,適応型大言語モデル(LLM)エージェントのための新しい学習パラダイムを提案する。
本手法は,メモリベースのオンライン強化学習により,低コストで連続的な適応を可能にする。
我々はエージェントモデルを,GAIA検証でトップ1に達するemphMementoというディープリサーチ環境でインスタンス化する。
論文 参考訳(メタデータ) (2025-08-22T07:25:30Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。