論文の概要: MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
- arxiv url: http://arxiv.org/abs/2602.02474v1
- Date: Mon, 02 Feb 2026 18:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.385146
- Title: MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
- Title(参考訳): MemSkill: 自己進化エージェントのための学習と記憶スキルの進化
- Authors: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang,
- Abstract要約: ほとんどのLarge Language Model (LLM) エージェントメモリシステムは、メモリを抽出するために静的で手作業で設計された小さな操作に頼っている。
textbfMemSkillは、これらの操作を学習可能で進化可能なメモリスキルとして再構成する。
- 参考スコア(独自算出の注目度): 29.375397774491887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present \textbf{MemSkill}, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a \emph{controller} that learns to select a small set of relevant skills, paired with an LLM-based \emph{executor} that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a \emph{designer} that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
- Abstract(参考訳): ほとんどのLarge Language Model (LLM) エージェントメモリシステムは、メモリを抽出するために静的で手作業で設計された小さな操作に頼っている。
これらの固定されたプロシージャは、何を保存し、どのようにメモリを更新するかという人間の事前情報をハードコードし、様々な相互作用パターンの下で固くし、長い歴史において非効率にします。
そこで本研究では,これらの操作を学習可能かつ進化可能なメモリスキルとして再設計し,インタラクショントレースから情報を抽出,統合,取得するための構造化および再利用可能なルーチンを提案する。
エージェントスキルの設計哲学に触発されたMemSkillは、スキル誘導メモリを生成するLLMベースのemph{executorと組み合わせて、関連するスキルの小さなセットを選択することを学習する \emph{controller} を採用している。
MemSkillは、スキル選択の学習以外にも、選択したスキルが不正確または不完全な記憶をもたらすハードケースを定期的にレビューする‘emph{designer’を導入し、洗練と新しいスキルを提案することでスキルセットを進化させる。
MemSkillは、スキル選択ポリシーとスキルセット自体を改善するクローズドループ手順を形成する。
LoCoMo、LongMemEval、HotpotQA、ALFWorldの実験では、MemSkillは強力なベースラインを越えてタスクパフォーマンスを改善し、設定にわたってうまく一般化することを示した。
さらなる分析は、LLMエージェントのより適応的で自己進化的なメモリ管理に対する洞察を提供するため、スキルの進化に光を当てた。
関連論文リスト
- AtomMem : Learnable Dynamic Agentic Memory with Atomic Memory Operation [40.1709026042412]
本稿では,メモリ管理を動的意思決定問題として再設計するAtomMemを提案する。
教師付き微調整と強化学習を組み合わせることで、AtomMemは、メモリの振る舞いをオーケストレーションする自律的なタスク整合ポリシーを学ぶ。
3つの長期コンテキストベンチマークの実験結果から、トレーニング済みのAtomMem-8Bは、従来の静的ワークフローメモリメソッドよりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2026-01-13T08:22:28Z) - Mem-α: Learning Memory Construction via Reinforcement Learning [20.916677456417464]
大きな言語モデル(LLM)エージェントは、限られたコンテキストウィンドウによって制約される。
現在のメモリ拡張エージェントは、メモリ更新のための事前に定義された命令とツールに依存している。
Mem-alphaは、エージェントに複雑なメモリシステムを効果的に管理するように訓練する強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-09-30T08:02:34Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Memp: Exploring Agent Procedural Memory [72.41472703974935]
LLM(Large Language Models)ベースのエージェントは様々なタスクをこなすが、静的パラメータで手動で設計または絡み合うような不安定なプロシージャメモリに悩まされる。
本稿では,過去のエージェントの軌跡をステップバイステップの細粒度と高レベルなスクリプトライクな抽象化の両方に蒸留するMempを提案する。
メモリレポジトリが洗練されるにつれて、エージェントは着実に高い成功率と類似タスクの効率を達成できることを示す。
論文 参考訳(メタデータ) (2025-08-08T16:20:56Z) - CMT: A Memory Compression Method for Continual Knowledge Learning of Large Language Models [22.93893181000535]
大規模言語モデル(LLM)は、データ、タスク、ユーザの好みの継続的な変更に適応する必要がある。
本稿では,これらの課題に対処するため,圧縮記憶訓練(CMT)法を提案する。
CMTは、メモリバンクに格納される新しい文書から情報を圧縮して抽出する。
これらの新しいドキュメントに関する問い合わせに答えると、モデルはこれらのドキュメントの記憶をメモリバンクから集約し、ユーザーの質問に答える。
論文 参考訳(メタデータ) (2024-12-10T10:35:19Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。