論文の概要: FLEX: Continuous Agent Evolution via Forward Learning from Experience
- arxiv url: http://arxiv.org/abs/2511.06449v1
- Date: Sun, 09 Nov 2025 16:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.953317
- Title: FLEX: Continuous Agent Evolution via Forward Learning from Experience
- Title(参考訳): FLEX: 経験からフォワードラーニングを通した継続的エージェント進化
- Authors: Zhicheng Cai, Xinyuan Guo, Yu Pei, JiangTao Feng, Jiangjie Chen, Ya-Qin Zhang, Wei-Ying Ma, Mingxuan Wang, Hao Zhou,
- Abstract要約: 大規模言語モデル(LLM)によって駆動される自律エージェントは、推論と問題解決に革命をもたらしたが、訓練後も静的のままである。
我々は,LLMエージェントが蓄積された経験を通して継続的に進化することを可能にする勾配のない学習パラダイムであるFLEX(Forward Learning with Experience)を紹介する。
- 参考スコア(独自算出の注目度): 54.796367711967754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous agents driven by Large Language Models (LLMs) have revolutionized reasoning and problem-solving but remain static after training, unable to grow with experience as intelligent beings do during deployment. We introduce Forward Learning with EXperience (FLEX), a gradient-free learning paradigm that enables LLM agents to continuously evolve through accumulated experience. Specifically, FLEX cultivates scalable and inheritable evolution by constructing a structured experience library through continual reflection on successes and failures during interaction with the environment. FLEX delivers substantial improvements on mathematical reasoning, chemical retrosynthesis, and protein fitness prediction (up to 23% on AIME25, 10% on USPTO50k, and 14% on ProteinGym). We further identify a clear scaling law of experiential growth and the phenomenon of experience inheritance across agents, marking a step toward scalable and inheritable continuous agent evolution. Project Page: https://flex-gensi-thuair.github.io.
- Abstract(参考訳): 大規模言語モデル(LLM)によって駆動される自律エージェントは、推論と問題解決に革命をもたらしたが、トレーニング後に静的のままであり、デプロイメント中にインテリジェントな人が行うような経験で成長することができない。
我々は,LLMエージェントが蓄積された経験を通して継続的に進化することを可能にする勾配のない学習パラダイムであるFLEX(Forward Learning with Experience)を紹介する。
具体的には、FLEXは、環境との相互作用中に成功と失敗を継続的に反映して構造化されたエクスペリエンスライブラリを構築することで、スケーラブルで継承可能な進化を育む。
FLEXは数学的推論、化学レトロシンセシス、タンパク質の適合性予測(AIME25では23%、USPTO50kでは10%、ProteinGymでは14%)を大幅に改善している。
さらに、経験的成長の明確なスケーリング法則と、エージェント間の経験的継承現象を同定し、スケーラブルで継承可能な連続エージェント進化へのステップを示す。
プロジェクトページ: https://flex-gensi-thuair.github.io
関連論文リスト
- Evolution in Simulation: AI-Agent School with Dual Memory for High-Fidelity Educational Dynamics [10.185612854120627]
大規模言語モデル(LLM)ベースのエージェントは、複雑な人間のシステムや相互作用をシミュレートし理解するためにますます重要になっている。
エージェントを利用して複雑な教育力学をシミュレーションする自己進化機構を中心に構築されたAI-Agent School(AAS)システムを提案する。
論文 参考訳(メタデータ) (2025-10-13T11:27:53Z) - Learning on the Job: An Experience-Driven Self-Evolving Agent for Long-Horizon Tasks [42.78572295558531]
大規模言語モデルは、さまざまなドメインにまたがる顕著な機能を示しているが、現実の長期タスクのためのAIエージェントとしてそれらをデプロイする場合には、大きな課題が続く。
既存のLLMエージェントは、テスト時の静的であり、経験から学ぶことができず、知識を蓄積し、仕事を継続的に改善する能力が欠如している。
本稿では,階層型メモリモジュールを中心に,経験駆動型自己進化型システムを実現する新しいエージェントフレームワークであるMUSEを提案する。
論文 参考訳(メタデータ) (2025-10-09T09:40:34Z) - Your Agent May Misevolve: Emergent Risks in Self-evolving LLM Agents [58.69865074060139]
エージェントの自己進化が意図しない方法で逸脱し、望ましくない結果や有害な結果に至る場合について検討する。
我々の経験から、誤進化は広範囲にわたるリスクであり、最上位のLSM上に構築されたエージェントにも影響を及ぼすことが判明した。
我々は、より安全で信頼性の高い自己進化型エージェントを構築するためのさらなる研究を促すための潜在的な緩和戦略について議論する。
論文 参考訳(メタデータ) (2025-09-30T14:55:55Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - Empowering Large Language Model Agents through Action Learning [85.39581419680755]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。