論文の概要: Darwinian Memory: A Training-Free Self-Regulating Memory System for GUI Agent Evolution
- arxiv url: http://arxiv.org/abs/2601.22528v1
- Date: Fri, 30 Jan 2026 04:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.20875
- Title: Darwinian Memory: A Training-Free Self-Regulating Memory System for GUI Agent Evolution
- Title(参考訳): ダーウィン記憶:GUIエージェント進化のための訓練不要な自己制御記憶システム
- Authors: Hongze Mi, Yibo Feng, WenJie Lu, Song Cao, Jinyuan Li, Yanming Li, Xuelin Zhang, Haotian Luo, Songyang Peng, He Cui, Tengfei Tian, Jun Fang, Hua Chai, Naiqiang Tan,
- Abstract要約: MLLM(Multimodal Large Language Model)エージェントはグラフィカルユーザインタフェース(GUI)の自動化を促進するが、長期にわたるクロスアプリケーションタスクに苦労する。
既存のパラダイムは、高レベルのインテントと低レベルの実行のミスマッチに苦しむ、動的GUI環境への適応に苦慮している。
本研究では,動的エコシステムとしてメモリを構築する自己進化型アーキテクチャであるDarwinian Memory System (DMS)を提案する。
- 参考スコア(独自算出の注目度): 18.68532215387754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal Large Language Model (MLLM) agents facilitate Graphical User Interface (GUI) automation but struggle with long-horizon, cross-application tasks due to limited context windows. While memory systems provide a viable solution, existing paradigms struggle to adapt to dynamic GUI environments, suffering from a granularity mismatch between high-level intent and low-level execution, and context pollution where the static accumulation of outdated experiences drives agents into hallucination. To address these bottlenecks, we propose the Darwinian Memory System (DMS), a self-evolving architecture that constructs memory as a dynamic ecosystem governed by the law of survival of the fittest. DMS decomposes complex trajectories into independent, reusable units for compositional flexibility, and implements Utility-driven Natural Selection to track survival value, actively pruning suboptimal paths and inhibiting high-risk plans. This evolutionary pressure compels the agent to derive superior strategies. Extensive experiments on real-world multi-app benchmarks validate that DMS boosts general-purpose MLLMs without training costs or architectural overhead, achieving average gains of 18.0% in success rate and 33.9% in execution stability, while reducing task latency, establishing it as an effective self-evolving memory system for GUI tasks.
- Abstract(参考訳): MLLM(Multimodal Large Language Model)エージェントはグラフィカルユーザインタフェース(GUI)の自動化を促進するが、コンテキストウィンドウが限られているため、長期にわたるクロスアプリケーションタスクに苦労する。
メモリシステムは実行可能なソリューションを提供するが、既存のパラダイムは動的GUI環境への適応に苦慮し、高レベルのインテントと低レベルの実行の粒度のミスマッチや、古い体験の静的蓄積がエージェントを幻覚に導くコンテキスト汚染に悩まされている。
このようなボトルネックに対処するため,我々は,適合性テストの生存法則によって支配される動的エコシステムとしてメモリを構築する,自己進化型アーキテクチャであるDarwinian Memory System (DMS)を提案する。
DMSは複雑な軌道を独立して再利用可能な単位に分解し、生存率を追跡するためにユーティリティ駆動の自然選択を実装し、準最適経路を積極的に刈り上げ、リスクの高い計画を抑制する。
この進化的な圧力は、優れた戦略を導出するエージェントを補完する。
DMSはトレーニングコストやアーキテクチャ上のオーバーヘッドなしに汎用MLLMを増強し、18.0%の成功率と33.9%の実行安定性を達成し、タスク遅延を低減し、GUIタスクのための効果的な自己進化メモリシステムとして確立した。
関連論文リスト
- MagicGUI-RMS: A Multi-Agent Reward Model System for Self-Evolving GUI Agents via Automated Feedback Reflux [37.49192877577783]
本稿では,適応軌道評価,修正フィードバック,自己進化学習機能を実現するマルチエージェント報酬モデルシステムMagicGUI-RMSを提案する。
大規模な報酬学習を支援するため、バランスの取れた多様な報酬データセットを自動的に生成する構造化データ構築パイプラインを設計する。
実験により、MagicGUI-RMSはタスクの正確性、振る舞いの堅牢性においてかなりの利益をもたらすことが示された。
論文 参考訳(メタデータ) (2026-01-19T13:50:43Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - MemEvolve: Meta-Evolution of Agent Memory Systems [66.09735157017558]
自己進化型メモリシステムは、大型言語モデル(LLM)ベースのエージェントの進化パラダイムを前例のない形で再構築している。
MemeEvolveは、エージェントの経験的知識とメモリアーキテクチャを共同で進化させるメタ進化フレームワークである。
EvolveLabは、12の代表的なメモリシステムをモジュール設計空間に蒸留する、統一された自己進化型メモリである。
論文 参考訳(メタデータ) (2025-12-21T14:26:14Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。