論文の概要: Towards AGI A Pragmatic Approach Towards Self Evolving Agent
- arxiv url: http://arxiv.org/abs/2601.11658v1
- Date: Thu, 15 Jan 2026 20:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.260252
- Title: Towards AGI A Pragmatic Approach Towards Self Evolving Agent
- Title(参考訳): AGIに向けて : 自己進化エージェントへの実践的アプローチ
- Authors: Indrajit Kar, Sammy Zonunpuia, Zonunfeli Ralte,
- Abstract要約: 大規模言語モデル(LLM)ベースのエージェントは、デプロイ後、強力だが基本的に静的である。
本研究では,Base LLM,運用SLMエージェント,Code-Generation LLM,Teacher-LLMを統合した階層的自己進化型マルチエージェントフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) based agents are powerful yet fundamentally static after deployment, lacking the ability to autonomously expand capabilities, generate new tools, or evolve their reasoning. This work introduces a hierarchical self-evolving multi-agent framework that integrates a Base LLM, an operational SLM agent, a Code-Generation LLM, and a Teacher-LLM to enable continuous adaptation. The workflow begins with the agent attempting a task using reasoning and existing tools; if unsuccessful, it escalates to tool synthesis through the Code-Gen LLM, and when failures persist, it triggers an evolution phase using Curriculum Learning (CL), Reward-Based Learning (RL), or Genetic Algorithm (GA) evolution. Using the TaskCraft dataset rich in hierarchical tasks, tool-use traces, and difficulty scaling we evaluate these paradigms. CL delivers fast recovery and strong generalization, RL excels on high-difficulty tasks, and GA offers high behavioral diversity. Across all settings, evolved agents outperform their originals, demonstrating robust, autonomous, self-improving agentic evolution.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントは、デプロイ後に強力だが基本的に静的であり、自律的な機能拡張、新しいツールの生成、推論の進化ができない。
本研究では,Base LLM,運用SLMエージェント,Code-Generation LLM,Teacher-LLMを統合し,継続的適応を実現する階層的自己進化型マルチエージェントフレームワークを提案する。
ワークフローは、推論と既存のツールを使用してタスクを試みるエージェントから始まり、失敗するとCode-Gen LLMを通じてツール合成にエスカレーションされ、失敗が継続すると、Curriculum Learning (CL)、Reward-Based Learning (RL)、Genematic Algorithm (GA)進化を使用して進化フェーズをトリガーする。
階層的なタスク、ツール使用トレース、スケーリングの難しさに富んだTaskCraftデータセットを使用して、これらのパラダイムを評価します。
CLは高速なリカバリと強力な一般化、RLは高微分タスクに優れ、GAは高い振る舞いの多様性を提供する。
あらゆる設定において、進化したエージェントは元のエージェントよりも優れており、堅牢で自律的で自己改善的なエージェント進化を実証している。
関連論文リスト
- The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [103.32591749156416]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。