論文の概要: Youtu-Agent: Scaling Agent Productivity with Automated Generation and Hybrid Policy Optimization
- arxiv url: http://arxiv.org/abs/2512.24615v1
- Date: Wed, 31 Dec 2025 04:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.566643
- Title: Youtu-Agent: Scaling Agent Productivity with Automated Generation and Hybrid Policy Optimization
- Title(参考訳): Youtu-Agent: 自動生成とハイブリッドポリシ最適化によるエージェント生産性のスケーリング
- Authors: Yuchen Shi, Yuzheng Cai, Siqi Cai, Zihan Xu, Lichao Chen, Yulei Qin, Zhijian Zhou, Xiang Fei, Chaofan Qiu, Xiaoyu Tan, Gang Li, Zongyi Li, Haojia Lin, Guocan Cai, Yong Mao, Yunsheng Wu, Ke Li, Xing Sun,
- Abstract要約: Youtu-AgentはLarge Language Model (LLM)エージェントの自動生成と継続的進化のために設計されたフレームワークである。
Youtu-Agentは、実行環境、ツールキット、コンテキスト管理を分離する構造化構成システムを備えている。
実験により、Youtu-Agentはオープンウェイトモデルを用いてWebWalkerQA(71.47%)とGAIA72.8%)で最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 37.17893162265247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing Large Language Model (LLM) agent frameworks face two significant challenges: high configuration costs and static capabilities. Building a high-quality agent often requires extensive manual effort in tool integration and prompt engineering, while deployed agents struggle to adapt to dynamic environments without expensive fine-tuning. To address these issues, we propose \textbf{Youtu-Agent}, a modular framework designed for the automated generation and continuous evolution of LLM agents. Youtu-Agent features a structured configuration system that decouples execution environments, toolkits, and context management, enabling flexible reuse and automated synthesis. We introduce two generation paradigms: a \textbf{Workflow} mode for standard tasks and a \textbf{Meta-Agent} mode for complex, non-standard requirements, capable of automatically generating tool code, prompts, and configurations. Furthermore, Youtu-Agent establishes a hybrid policy optimization system: (1) an \textbf{Agent Practice} module that enables agents to accumulate experience and improve performance through in-context optimization without parameter updates; and (2) an \textbf{Agent RL} module that integrates with distributed training frameworks to enable scalable and stable reinforcement learning of any Youtu-Agents in an end-to-end, large-scale manner. Experiments demonstrate that Youtu-Agent achieves state-of-the-art performance on WebWalkerQA (71.47\%) and GAIA (72.8\%) using open-weight models. Our automated generation pipeline achieves over 81\% tool synthesis success rate, while the Practice module improves performance on AIME 2024/2025 by +2.7\% and +5.4\% respectively. Moreover, our Agent RL training achieves 40\% speedup with steady performance improvement on 7B LLMs, enhancing coding/reasoning and searching capabilities respectively up to 35\% and 21\% on Maths and general/multi-hop QA benchmarks.
- Abstract(参考訳): 既存のLarge Language Model (LLM)エージェントフレームワークは2つの大きな課題に直面している。
高品質なエージェントを構築するには、ツールの統合やエンジニアリングの促進に広範囲な手作業が必要になることが多いが、デプロイされたエージェントは、高価な微調整なしで動的環境への適応に苦労する。
これらの問題に対処するために, LLM エージェントの自動生成と連続的進化を目的としたモジュール型フレームワークである \textbf{Youtu-Agent} を提案する。
Youtu-Agentは、実行環境、ツールキット、コンテキスト管理を分離し、柔軟な再利用と自動合成を可能にする構造化された構成システムを備えている。
本稿では、標準タスク用の \textbf{Workflow} モードと、ツールコード、プロンプト、設定を自動的に生成できる複雑な非標準要件のための \textbf{Meta-Agent} モードの2つの世代パラダイムを紹介する。
さらにYoutu-Agentは,(1)エージェントがパラメータ更新なしで経験を蓄積し,コンテキスト内での最適化によってパフォーマンスを向上させるための‘textbf{Agent Practice}モジュール,(2)分散トレーニングフレームワークと統合して,任意のYoutu-Agentをエンドツーエンド,大規模にスケーラブルかつ安定した強化学習を可能にする‘textbf{Agent RL}モジュール,というハイブリッドポリシ最適化システムを確立する。
実験により、Youtu-Agentはオープンウェイトモデルを用いてWebWalkerQA (71.47\%) とGAIA (72.8\%) で最先端のパフォーマンスを達成することが示された。
自動生成パイプラインは81 %以上のツール合成成功率を達成する一方,Practice モジュールは AIME 2024/2025 のパフォーマンスを+2.7 %,+5.4 % 向上させる。
さらに, エージェントRLトレーニングでは, 7B LLM上での安定した性能向上により40 %の高速化を実現し, 一般/マルチホップQAベンチマークでは, それぞれ35 %と21 %に向上した。
関連論文リスト
- Evolving Excellence: Automated Optimization of LLM-based Agents [33.81822162934331]
我々は、意味論的に認識された遺伝的演算子を通してエージェント構成を協調的に最適化する、ノーコード進化最適化プラットフォームであるARTEMISを提案する。
我々は,AtCoder Heuristic Contest 上での競争プログラミングのための emphALE Agent の 4 つの代表的なエージェントシステム上で ARTEMIS を評価する。
また、GSM8Kの初等レベルの数学問題に対して、より小さなオープンソースモデル(Qwen2.5-7B)を用いたemphMathTales-Teacher Agentの評価を行い、textbfを実現する。
論文 参考訳(メタデータ) (2025-12-09T20:48:45Z) - $Agent^2$: An Agent-Generates-Agent Framework for Reinforcement Learning Automation [5.325886106098561]
強化学習(RL)エージェント開発は伝統的にかなりの専門知識と反復的な努力を必要とする。
本稿では,完全自動RLエージェント設計のための LLM 駆動型エージェント生成エージェントフレームワークである Agent$2$ を紹介する。
Agent$2$は、自然言語のタスク記述と環境コードを人間の介入なしに実行可能なRLソリューションに変換する。
論文 参考訳(メタデータ) (2025-09-16T02:14:39Z) - AutoAgent: A Fully-Automated and Zero-Code Framework for LLM Agents [10.664244731281842]
大規模言語モデル (LLM) エージェントはタスクの自動化とインテリジェントな意思決定において顕著な能力を示した。
これらのフレームワークは、主に開発者に対して広範な技術的専門知識を提供する。
世界の人口の0.03%のみが必要なプログラミングスキルを持っている。
論文 参考訳(メタデータ) (2025-02-09T16:53:56Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。