論文の概要: MAPLE: A Sub-Agent Architecture for Memory, Learning, and Personalization in Agentic AI Systems
- arxiv url: http://arxiv.org/abs/2602.13258v1
- Date: Tue, 03 Feb 2026 03:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.591661
- Title: MAPLE: A Sub-Agent Architecture for Memory, Learning, and Personalization in Agentic AI Systems
- Title(参考訳): MAPLE:エージェントAIシステムにおける記憶、学習、パーソナライズのためのサブエージェントアーキテクチャ
- Authors: Deepak Babu Piskala,
- Abstract要約: 大規模言語モデル(LLM)エージェントは複雑なタスクのための強力なツールとして登場したが、個々のユーザへの適応能力は基本的に制限されている。
現在のシステムは3つの異なるメカニズムではなく、記憶、学習、パーソナライゼーションを統一された能力として扱う。
メモリは記憶と検索のインフラを処理し、学習は蓄積された相互作用から知性を非同期に抽出し、パーソナライゼーションは有限のコンテキスト予算内で学習知識をリアルタイムで適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents have emerged as powerful tools for complex tasks, yet their ability to adapt to individual users remains fundamentally limited. We argue this limitation stems from a critical architectural conflation: current systems treat memory, learning, and personalization as a unified capability rather than three distinct mechanisms requiring different infrastructure, operating on different timescales, and benefiting from independent optimization. We propose MAPLE (Memory-Adaptive Personalized LEarning), a principled decomposition where Memory handles storage and retrieval infrastructure; Learning extracts intelligence from accumulated interactions asynchronously; and Personalization applies learned knowledge in real-time within finite context budgets. Each component operates as a dedicated sub-agent with specialized tooling and well-defined interfaces. Experimental evaluation on the MAPLE-Personas benchmark demonstrates that our decomposition achieves a 14.6% improvement in personalization score compared to a stateless baseline (p < 0.01, Cohen's d = 0.95) and increases trait incorporation rate from 45% to 75% -- enabling agents that genuinely learn and adapt.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは複雑なタスクのための強力なツールとして登場したが、個々のユーザへの適応能力は基本的に制限されている。
現在のシステムは、異なるインフラを必要とする3つの異なるメカニズムではなく、メモリ、学習、パーソナライゼーションを統一された能力として扱う。
メモリは記憶と検索のインフラを処理し、学習は蓄積された相互作用から知性を非同期に抽出し、パーソナライゼーションは有限のコンテキスト予算内で学習知識をリアルタイムで適用する。
各コンポーネントは専用のツールと明確に定義されたインターフェースを備えた専用のサブエージェントとして動作する。
MAPLE-Personasベンチマークの実験評価では、状態のないベースライン (p < 0.01, Cohen's d = 0.95) と比較して、我々の分解が14.6%のパーソナライズスコアを達成し、特性の取り込み率を45%から75%に向上し、真に学習し、適応するエージェントを可能にすることが示されている。
関連論文リスト
- ALIGN-FL: Architecture-independent Learning through Invariant Generative component sharing in Federated Learning [4.073149631618324]
本稿では分散学習の新たなアプローチであるALIGN-FLを提案する。
我々のフレームワークは、完全なモデルパラメータを交換する代わりに、クライアント間で生成機能のみを転送することで、プライバシ保護学習を可能にします。
論文 参考訳(メタデータ) (2025-12-15T13:35:27Z) - Towards a Science of Scaling Agent Systems [79.64446272302287]
エージェント評価の定義を定式化し,エージェント量,コーディネーション構造,モデル,タスク特性の相互作用として,スケーリング法則を特徴付ける。
協調指標を用いて予測モデルを導出し,R2=0をクロスバリデーションし,未知のタスク領域の予測を可能にする。
ツールコーディネーショントレードオフ: 固定的な計算予算の下では, ツールヘビータスクはマルチエージェントのオーバーヘッドから不均衡に悩まされ, 2) 能力飽和: 調整が減少または負のリターンを, 単一エージェントのベースラインが45%を超えると達成できる。
論文 参考訳(メタデータ) (2025-12-09T06:52:21Z) - PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory [56.81126490418336]
パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
論文 参考訳(メタデータ) (2025-12-07T06:48:23Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Enabling Personalized Long-term Interactions in LLM-based Agents through Persistent Memory and User Profiles [0.4885400580268118]
大規模言語モデル(LLM)はAIエージェントの中央制御ユニットとしての役割を担っている。
本稿では、パーソナライズされた長期的なインタラクションを実現するために、永続メモリ、動的コーディネーション、自己検証、およびユーザプロファイルの進化を統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-09T08:22:16Z) - Memory Management and Contextual Consistency for Long-Running Low-Code Agents [0.0]
本稿ではLCNCエージェントに特化して設計された新しいハイブリッドメモリシステムを提案する。
認知科学にインスパイアされた私たちのアーキテクチャは、エピソードとセマンティックメモリコンポーネントと、積極的な「インテリジェント・デカイ」メカニズムを組み合わせています。
鍵となるイノベーションは、LCNCパラダイムに沿ったユーザ中心の可視化インターフェースであり、非技術者のユーザがエージェントのメモリを直接管理できるようにする。
論文 参考訳(メタデータ) (2025-09-27T08:01:26Z) - PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time [87.99027488664282]
PersonaAgentは、汎用的なパーソナライゼーションタスクに対処するために設計されたフレームワークである。
パーソナライズされたメモリモジュールとパーソナライズされたアクションモジュールを統合する。
テストタイムのユーザ嗜好アライメント戦略は、リアルタイムのユーザの嗜好アライメントを保証する。
論文 参考訳(メタデータ) (2025-06-06T17:29:49Z) - Agent4Edu: Generating Learner Response Data by Generative Agents for Intelligent Education Systems [27.161576657380646]
Agent4Eduは、大規模言語モデル(LLM)による人間知能の最近の進歩を活用した、パーソナライズされた学習シミュレータである。
学習者のプロファイルは現実世界の反応データを使用し、実践スタイルと認知要因をキャプチャする。
各エージェントは、コンピュータ適応テストのようなパーソナライズされた学習アルゴリズムと対話することができる。
論文 参考訳(メタデータ) (2025-01-17T18:05:04Z) - A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning [34.85351481228439]
既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-03-10T05:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。