論文の概要: General Agentic Memory Via Deep Research
- arxiv url: http://arxiv.org/abs/2511.18423v1
- Date: Sun, 23 Nov 2025 12:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.835201
- Title: General Agentic Memory Via Deep Research
- Title(参考訳): ディープリサーチによる一般エージェントメモリ
- Authors: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu,
- Abstract要約: 我々は,textbf General Agentic memory (GAM) と呼ばれる新しいフレームワークを提案する。
GAMは実行時にクライアントに最適化されたコンテキストを生成し、オフライン段階ではシンプルだが有用なメモリのみを保持する。
GAMは、既存のメモリシステムに対して様々なメモリ基底タスク完了シナリオを大幅に改善する。
- 参考スコア(独自算出の注目度): 12.503470046367838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called \textbf{general agentic memory (GAM)}. GAM follows the principle of "\textbf{just-in time (JIT) compilation}" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) \textbf{Memorizer}, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) \textbf{Researcher}, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.
- Abstract(参考訳): メモリはAIエージェントにとって重要なものだが、前もって簡単に利用可能なメモリを作成することを目的とした、広く推奨されている静的メモリは、必然的に深刻な情報損失を被っている。
この制限に対処するため,新しいフレームワークである \textbf{ general agentic memory (GAM) を提案する。
GAMは"\textbf{just-in time (JIT) compilation}"の原則に従い、オフライン段階ではシンプルだが有用なメモリだけを保持しながら、実行時にクライアントに最適化されたコンテキストを作成することに重点を置いている。
この目的のために、GAMは以下のコンポーネントを持つデュオ設計を採用している。
1) \textbf{Memorizer} は軽量メモリを用いて重要な履歴情報を強調表示し、万能ページストア内で完全な履歴情報を保持できる。
2) \textbf{Researcher} – 事前に構築されたメモリでガイドされたオンラインリクエストのためにページストアから有用な情報を検索し、統合する。
この設計により、GAMは、フロンティア大言語モデル(LLM)のエージェント機能とテスト時スケーラビリティを効果的に活用できると同時に、強化学習によるエンドツーエンドのパフォーマンス最適化を容易にする。
本研究では, GAMが既存のメモリシステムに対して, 様々なメモリグランドタスク完了シナリオにおいて, 大幅な改善を実現していることを示す。
関連論文リスト
- MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。