論文の概要: Building Self-Evolving Agents via Experience-Driven Lifelong Learning: A Framework and Benchmark
- arxiv url: http://arxiv.org/abs/2508.19005v4
- Date: Fri, 12 Sep 2025 05:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 14:04:03.072212
- Title: Building Self-Evolving Agents via Experience-Driven Lifelong Learning: A Framework and Benchmark
- Title(参考訳): 経験駆動型生涯学習による自己進化型エージェントの構築 - フレームワークとベンチマーク
- Authors: Yuxuan Cai, Yipeng Hao, Jie Zhou, Hang Yan, Zhikai Lei, Rui Zhen, Zhenhua Han, Yutao Yang, Junsong Li, Qianjun Pan, Tianyu Huai, Qin Chen, Xin Li, Kai Chen, Bo Zhang, Xipeng Qiu, Liang He,
- Abstract要約: 本稿では、自己進化エージェントを構築するためのフレームワークである、経験駆動型生涯学習(ELL)を紹介する。
ELLは、Experience Exploration、Long-term Memory、Skill Learning、Knowledge Internalizationの4つのコア原則に基づいて構築されている。
また、学生の総合的な大学旅行をシミュレートするELLのベンチマークデータセットであるStuLifeを紹介した。
- 参考スコア(独自算出の注目度): 57.59000694149105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI advances toward general intelligence, the focus is shifting from systems optimized for static tasks to creating open-ended agents that learn continuously. In this paper, we introduce Experience-driven Lifelong Learning (ELL), a framework for building self-evolving agents capable of continuous growth through real-world interaction. The framework is built on four core principles: (1) Experience Exploration: Agents learn through continuous, self-motivated interaction with dynamic environments, navigating interdependent tasks and generating rich experiential trajectories. (2) Long-term Memory: Agents preserve and structure historical knowledge, including personal experiences, domain expertise, and commonsense reasoning, into a persistent memory system. (3) Skill Learning: Agents autonomously improve by abstracting recurring patterns from experience into reusable skills, which are actively refined and validated for application in new tasks. (4) Knowledge Internalization: Agents internalize explicit and discrete experiences into implicit and intuitive capabilities as "second nature". We also introduce StuLife, a benchmark dataset for ELL that simulates a student's holistic college journey, from enrollment to academic and personal development, across three core phases and ten detailed sub-scenarios. StuLife is designed around three key paradigm
- Abstract(参考訳): AIが汎用インテリジェンスに向かって進むにつれ、焦点は静的タスクに最適化されたシステムから、継続的に学習するオープンエンドエージェントへとシフトしている。
本稿では,実世界のインタラクションを通じて継続的な成長が可能な自己進化型エージェントを構築するためのフレームワークである,経験駆動型生涯学習(ELL)を紹介する。
1) 経験的探索: エージェントは動的環境との継続的かつ自己動機的な相互作用を通じて学び、相互依存したタスクをナビゲートし、豊富な経験的軌道を生成する。
2) 長期記憶: エージェントは、個人経験、ドメインの専門知識、コモンセンス推論を含む歴史的知識を永続記憶システムに保存し、構造化する。
(3) スキル学習: エージェントは経験から再利用可能なスキルへと繰り返しパターンを抽象化し、自律的に改善する。
(4)知識の内在化:エージェントは明示的で離散的な体験を「第二の自然」として暗黙的で直感的な能力に内部化する。
StuLifeは、学生の総合的なカレッジコースをシミュレートし、3つのコアフェーズと10の詳細なサブシナリオにまたがって、入学から学術的、個人的開発まで、学生の総合的なカレッジジャーニーをシミュレートするベンチマークデータセットである。
StuLifeは3つの重要なパラダイムを中心に設計されている
関連論文リスト
- The Agent's First Day: Benchmarking Learning, Exploration, and Scheduling in the Workplace Scenarios [34.25281365374991]
本稿では,新しい環境を継続的に探索する「訓練」エージェントをシミュレートする動的評価環境である方法を紹介する。
従来のベンチマークとは違って,(1)優先度の異なるストリーミングタスクのコンテキストアウェアスケジューリング,(2)能動的探索による幻覚の低減のための巧妙な情報取得,(3)規則に基づく動的生成タスクから一般化戦略を抽出した継続的進化,の3つの側面に沿ってエージェントを評価する。
私たちの研究は、エージェントの信頼性を評価するためのフレームワークを確立し、静的テストから現実的な実運用指向のシナリオに評価をシフトします。
論文 参考訳(メタデータ) (2026-01-13T03:09:18Z) - EvolveR: Self-Evolving LLM Agents through an Experience-Driven Lifecycle [26.048906477714937]
現在のLLM(Large Language Model)エージェントは、ツール使用時のパフォーマンスは高いが、自身の経験から体系的に学習する能力は欠如している。
EvolveRは、エージェントが完全なクローズドループ体験ライフサイクルを通じて自己改善できるように設計されたフレームワークである。
複雑なマルチホップ質問応答ベンチマークにおけるEvolveRの有効性を示す。
論文 参考訳(メタデータ) (2025-10-17T12:03:16Z) - Evolution in Simulation: AI-Agent School with Dual Memory for High-Fidelity Educational Dynamics [10.185612854120627]
大規模言語モデル(LLM)ベースのエージェントは、複雑な人間のシステムや相互作用をシミュレートし理解するためにますます重要になっている。
エージェントを利用して複雑な教育力学をシミュレーションする自己進化機構を中心に構築されたAI-Agent School(AAS)システムを提案する。
論文 参考訳(メタデータ) (2025-10-13T11:27:53Z) - Agent Learning via Early Experience [93.83579011718858]
言語エージェントの長期的な目標は、彼ら自身の経験から学び、改善することであり、最終的には複雑な現実世界のタスクにおいて人間より優れています。
現在のエージェントのほとんどは、専門家データによる教師付き微調整に依存しており、スケールと一般化が不十分である。
本研究では,(1)環境力学における政策の基盤として収集された状態を利用するインプリシット・ワールド・モデリング,(2)エージェントが最適な行動から学習し,推論と意思決定を改善するための自己回帰という2つの手法について検討する。
論文 参考訳(メタデータ) (2025-10-09T17:59:17Z) - Learning on the Job: An Experience-Driven Self-Evolving Agent for Long-Horizon Tasks [42.78572295558531]
大規模言語モデルは、さまざまなドメインにまたがる顕著な機能を示しているが、現実の長期タスクのためのAIエージェントとしてそれらをデプロイする場合には、大きな課題が続く。
既存のLLMエージェントは、テスト時の静的であり、経験から学ぶことができず、知識を蓄積し、仕事を継続的に改善する能力が欠如している。
本稿では,階層型メモリモジュールを中心に,経験駆動型自己進化型システムを実現する新しいエージェントフレームワークであるMUSEを提案する。
論文 参考訳(メタデータ) (2025-10-09T09:40:34Z) - ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory [57.517214479414726]
ReasoningBankは、エージェントの自己判断の成功と失敗の経験から一般化可能な推論戦略を抽出するメモリフレームワークである。
テスト時には、エージェントがReasoningBankから関連する記憶を取得してそのインタラクションを知らせ、新しい学習を統合することで、時間が経つにつれてより有能になる。
本稿では,エージェントのインタラクションエクスペリエンスをスケールアップすることにより,学習プロセスの高速化と多様化を図るメモリ対応テストタイムスケーリング(MaTTS)を提案する。
論文 参考訳(メタデータ) (2025-09-29T17:51:03Z) - LifelongAgentBench: Evaluating LLM Agents as Lifelong Learners [51.518410910148816]
しかし、現在の大規模言語モデル(LLM)ベースのエージェントは、状態のままであり、時間とともに知識を蓄積または転送することができない。
LLMエージェントの生涯学習能力を体系的に評価するために設計された最初の統合ベンチマークであるLifelongAgentBenchを紹介する。
論文 参考訳(メタデータ) (2025-05-17T10:09:11Z) - SPECI: Skill Prompts based Hierarchical Continual Imitation Learning for Robot Manipulation [3.1997825444285457]
動的非構造環境における現実世界のロボット操作は、進化するオブジェクト、シーン、タスクに対して生涯の適応性を必要とする。
伝統的な模倣学習は、生涯適応に不適な静的な訓練パラダイムに依存している。
我々は,ロボット操作のための新しいエンドツーエンドの階層型CILポリシーアーキテクチャである,スキル・プロンプトに基づく階層型連続模倣学習(SPECI)を提案する。
論文 参考訳(メタデータ) (2025-04-22T03:30:38Z) - Knowledge Retention for Continual Model-Based Reinforcement Learning [11.5581880507344]
DRAGOは連続モデルに基づく強化学習のための新しいアプローチである。
DRAGOは、Synthetic Experience RehearsalとRe Get Memories Through Explorationの2つの重要なコンポーネントで構成されている。
実証的な評価は、DRAGOがタスク間の知識を保存でき、様々な連続学習シナリオにおいて優れたパフォーマンスを達成できることを示している。
論文 参考訳(メタデータ) (2025-03-06T09:38:14Z) - Towards LifeSpan Cognitive Systems [94.8985839251011]
複雑な環境と継続的に対話する人間のようなシステムを構築することは、いくつかの重要な課題を提示します。
我々は、この想定されたシステムをLifeSpan Cognitive System (LSCS)と呼ぶ。
LSCSの重要な特徴は、過去の経験を維持し、正確にリコールしながら、インクリメンタルで迅速な更新を行う機能である。
論文 参考訳(メタデータ) (2024-09-20T06:54:00Z) - Online Continual Learning For Interactive Instruction Following Agents [20.100312650193228]
このような学習シナリオは,ロボットエージェントが世界を探索し,知覚する上で,継続的に世界を学ぶことが求められているため,現実的ではない,と我々は主張する。
本研究では,新しい行動学習と新しい環境学習という,エンボディエージェントのための2つの連続学習環境を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:33:48Z) - Recall-Oriented Continual Learning with Generative Adversarial
Meta-Model [5.710971447109951]
本稿では,安定性・塑性ジレンマに対処するリコール指向連続学習フレームワークを提案する。
人間の脳が安定性と可塑性のメカニズムを分離する能力に触発されて、私たちのフレームワークは2段階のアーキテクチャで構成されています。
我々は,新たな知識を効果的に学習するだけでなく,従来の知識の安定性も高いことを示す。
論文 参考訳(メタデータ) (2024-03-05T16:08:59Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。