論文の概要: Hierarchical Memory Orchestration for Personalized Persistent Agents
- arxiv url: http://arxiv.org/abs/2604.01670v1
- Date: Thu, 02 Apr 2026 06:16:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-03 14:21:10.557622
- Title: Hierarchical Memory Orchestration for Personalized Persistent Agents
- Title(参考訳): パーソナライズされた永続エージェントのための階層記憶オーケストレーション
- Authors: Junming Liu, Yifei Sun, Weihua Cheng, Haodong Lei, Yuqi Li, Yirong Chen, Ding Wang,
- Abstract要約: ユーザ中心のコンテキスト関連性によって駆動される3階層のディレクトリにインタラクション履歴を整理するフレームワークである階層記憶オーケストレーション(HMO)を提案する。
エージェント推論が個々の行動特性と一致し続けることを保証するため,本システムはコンパクトなプライマリキャッシュを維持し,最近のメモリとピボットメモリと,進化するユーザプロファイルを結合する。
- 参考スコア(独自算出の注目度): 22.711300383282268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While long-term memory is essential for intelligent agents to maintain consistent historical awareness, the accumulation of extensive interaction data often leads to performance bottlenecks. Naive storage expansion increases retrieval noise and computational latency, overwhelming the reasoning capacity of models deployed on constrained personal devices. To address this, we propose Hierarchical Memory Orchestration (HMO), a framework that organizes interaction history into a three-tiered directory driven by user-centric contextual relevance. Our system maintains a compact primary cache, coupling recent and pivotal memories with an evolving user profile to ensure agent reasoning remains aligned with individual behavioral traits. This primary cache is complemented by a high-priority secondary layer, both of which are managed within a global archive of the full interaction history. Crucially, the user persona dictates memory redistribution across this hierarchy, promoting records mapped to long-term patterns toward more active tiers while relegating less relevant information. This targeted orchestration surfaces historical knowledge precisely when needed while maintaining a lean and efficient active search space. Evaluations on multiple benchmarks achieve state-of-the-art performance. Real-world deployments in ecosystems like OpenClaw demonstrate that HMO significantly enhances agent fluidity and personalization.
- Abstract(参考訳): 知的エージェントが一貫した歴史的認識を維持するためには、長期記憶が不可欠であるが、広範囲にわたるインタラクションデータの蓄積は、しばしばパフォーマンスのボトルネックにつながる。
ネイティブストレージの拡張により、検索ノイズと計算遅延が増加し、制約されたパーソナルデバイスにデプロイされるモデルの推論能力が超過する。
これを解決するために,ユーザ中心のコンテキスト関連性によって駆動される3階層のディレクトリにインタラクション履歴を整理するフレームワークである階層記憶オーケストレーション(HMO)を提案する。
エージェント推論が個々の行動特性と一致し続けることを保証するため,本システムはコンパクトなプライマリキャッシュを維持し,最近のメモリとピボットメモリと,進化するユーザプロファイルを結合する。
このプライマリキャッシュは、高優先度のセカンダリ層によって補完され、どちらも、完全なインタラクション履歴のグローバルアーカイブ内で管理される。
重要なのは、ユーザペルソナがこの階層にまたがるメモリ再分配を指示し、よりアクティブな層に向けて長期的なパターンにマッピングされたレコードを宣伝し、関連性の低い情報をレグレゲートする。
このターゲットとなるオーケストレーションは、リーンで効率的な能動検索空間を維持しながら、必要なときの歴史的知識を正確に表す。
複数のベンチマークの評価は最先端のパフォーマンスを達成する。
OpenClawのようなエコシステムにおける実世界のデプロイは、HMOがエージェントの流動性とパーソナライゼーションを大幅に強化することを示している。
関連論文リスト
- AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。