論文の概要: Divide, Optimize, Merge: Fine-Grained LLM Agent Optimization at Scale
- arxiv url: http://arxiv.org/abs/2505.03973v1
- Date: Tue, 06 May 2025 20:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.914166
- Title: Divide, Optimize, Merge: Fine-Grained LLM Agent Optimization at Scale
- Title(参考訳): Divide, Optimize, Merge: スケールでの微粒化LDMエージェント最適化
- Authors: Jiale Liu, Yifan Zeng, Shaokun Zhang, Chi Zhang, Malte Højmark-Bertelsen, Marie Normann Gadeberg, Huazheng Wang, Qingyun Wu,
- Abstract要約: Fine-Grained Optimization (FGO)は、大規模最適化タスクを管理可能なサブセットに分割し、ターゲット最適化を実行し、プログレッシブマージを通じて最適化されたコンポーネントを体系的に結合するスケーラブルなフレームワークである。
ALFWorld、LogisticsQA、GAIAベンチマークによる評価では、FGOは既存のアプローチを1.6-8.6%上回り、平均的なプロンプトトークン消費量を56.3%削減している。
- 参考スコア(独自算出の注目度): 19.60416591361918
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: LLM-based optimization has shown remarkable potential in enhancing agentic systems. However, the conventional approach of prompting LLM optimizer with the whole training trajectories on training dataset in a single pass becomes untenable as datasets grow, leading to context window overflow and degraded pattern recognition. To address these challenges, we propose Fine-Grained Optimization (FGO), a scalable framework that divides large optimization tasks into manageable subsets, performs targeted optimizations, and systematically combines optimized components through progressive merging. Evaluation across ALFWorld, LogisticsQA, and GAIA benchmarks demonstrate that FGO outperforms existing approaches by 1.6-8.6% while reducing average prompt token consumption by 56.3%. Our framework provides a practical solution for scaling up LLM-based optimization of increasingly sophisticated agent systems. Further analysis demonstrates that FGO achieves the most consistent performance gain in all training dataset sizes, showcasing its scalability and efficiency.
- Abstract(参考訳): LLMに基づく最適化は、エージェントシステムの強化に顕著な可能性を示している。
しかし、従来のLLMオプティマイザのトレーニングトラジェクトリを1パスのトレーニングデータセットに含めるアプローチは、データセットが大きくなるにつれて停止しなくなり、コンテキストウインドウのオーバーフローやパターン認識の劣化につながる。
これらの課題に対処するため、我々は、大規模な最適化タスクを管理可能なサブセットに分割し、ターゲット最適化を行い、プログレッシブマージを通じて最適化されたコンポーネントを体系的に結合するスケーラブルなフレームワーク、FGOを提案する。
ALFWorld、LogisticsQA、GAIAベンチマークによる評価では、FGOは既存のアプローチを1.6-8.6%上回り、平均的なプロンプトトークン消費量を56.3%削減している。
我々のフレームワークは、より洗練されたエージェントシステムのLLMベースの最適化をスケールアップするための実用的なソリューションを提供する。
さらに分析した結果、FGOはすべてのトレーニングデータセットサイズにおいて、最も一貫したパフォーマンス向上を実現し、そのスケーラビリティと効率を示している。
関連論文リスト
- GOLLuM: Gaussian Process Optimized LLMs -- Reframing LLM Finetuning through Bayesian Optimization [0.4037357056611557]
大規模言語モデル(LLM)は、その潜在空間における複雑な関係を符号化することができる。
LLMベースのディープカーネルを導入し、GPと共同で最適化し、両方の利点を維持する。
提案手法は, 静的LLM埋め込みと比較して, 高効率反応の発見率をほぼ2倍に向上させる。
論文 参考訳(メタデータ) (2025-04-08T17:59:57Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。