論文の概要: Polymath: A Self-Optimizing Agent with Dynamic Hierarchical Workflow
- arxiv url: http://arxiv.org/abs/2508.02959v1
- Date: Mon, 04 Aug 2025 23:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.718481
- Title: Polymath: A Self-Optimizing Agent with Dynamic Hierarchical Workflow
- Title(参考訳): Polymath: 動的階層ワークフローを備えたセルフ最適化エージェント
- Authors: Chia-Tung Ho, Jing Gong, Xufeng Yao, Yunsheng Bai, Abhishek B Akkur, Haoxing Ren,
- Abstract要約: 大規模言語モデル(LLM)は、詳細な命令と構造化操作からなるエージェントティックを実行することで、複雑なタスクの解決に優れる。
多くの研究者がコードベースの表現を通じてこれらの生成と最適化を自動化しようとしてきた。
既存の方法は、トレーニングと最適化のためにラベル付きデータセットに頼っていることが多く、現実のダイナミックな問題を解決するのに非効率で柔軟性がない。
- 参考スコア(独自算出の注目度): 6.636150750052998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at solving complex tasks by executing agentic workflows composed of detailed instructions and structured operations. Yet, building general-purpose agents by manually embedding foundation models into agentic systems such as Chain-of-Thought, Self-Reflection, and ReACT through text interfaces limits scalability and efficiency. Recently, many researchers have sought to automate the generation and optimization of these workflows through code-based representations. However, existing methods often rely on labeled datasets to train and optimize workflows, making them ineffective and inflexible for solving real-world, dynamic problems where labeled data is unavailable. To address this challenge, we introduce Polymath, a self-optimizing agent with dynamic hierarchical workflow that leverages the flexibility of task flow graphs and the expressiveness of code-represented workflows to solve a wide range of real-world, dynamic problems. The proposed optimization methodology integrates multi-grid-inspired graph optimization with a self-reflection-guided evolutionary algorithm to refine workflows without labeled data. Experimental results on six benchmark datasets across coding, math, and multi-turn QA tasks show that Polymath achieves 8.1% average improvement over state-of-the-art baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)は、詳細な命令と構造化操作からなるエージェントワークフローを実行することで、複雑なタスクの解決に優れる。
しかし、Chain-of-Thought、Self-Reflection、ReACTといったエージェントシステムに基礎モデルを手動で組み込むことで汎用エージェントを構築することは、スケーラビリティと効率を制限します。
最近、多くの研究者がコードベースの表現を通じてこれらのワークフローの生成と最適化を自動化しようと試みている。
しかしながら、既存のメソッドは、ワークフローをトレーニングし最適化するためにラベル付きデータセットに依存しており、ラベル付きデータが利用できない現実の動的問題を解決するのに効果的で柔軟性がない。
この課題に対処するために,タスクフローグラフの柔軟性とコード表現ワークフローの表現性を活用して,さまざまな現実的,ダイナミックな問題を解決する動的階層ワークフローを備えた自己最適化エージェントであるPolymathを紹介した。
提案手法は,マルチグリッド型グラフ最適化と自己回帰誘導進化アルゴリズムを統合し,ラベル付きデータを使わずにワークフローを洗練する。
コーディング、数学、マルチターンQAタスクにわたる6つのベンチマークデータセットの実験結果は、Polymathが最先端のベースラインよりも平均8.1%改善していることを示している。
関連論文リスト
- LAM SIMULATOR: Advancing Data Generation for Large Action Model Training via Online Exploration and Trajectory Feedback [121.78866929908871]
AIエージェントのための大規模アクションモデル(LAM)は、素晴らしいポテンシャルを提供するが、高品質なトレーニングデータを必要とするため、課題に直面している。
LAM SIMULATORは,高品質なフィードバックによるエージェントタスクのオンライン探索を目的とした総合的なフレームワークである。
本フレームワークは,動的タスククエリジェネレータ,広範囲なツールコレクション,および大規模言語モデル(LLM)エージェントがツールを呼び出し,リアルタイムフィードバックを受信できる対話型環境を備えている。
論文 参考訳(メタデータ) (2025-06-02T22:36:02Z) - SEW: Self-Evolving Agentic Workflows for Automated Code Generation [24.16770109875788]
textbfSelf-textbfEvolving textbfSEW(textbfSEW)を提案する。
当社のSEWは,エージェントを自動設計し,自己進化を通じて最適化することが可能で,LiveCodeBenchの33%の改善を実現しています。
論文 参考訳(メタデータ) (2025-05-24T11:12:14Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - GNNs as Predictors of Agentic Workflow Performances [48.34485750450876]
LLM(Large Language Models)によって起動されるエージェントは、複雑なタスクの処理において顕著な成功を収めた。
本稿では、エージェントを計算グラフとして定式化し、エージェント性能の効率的な予測因子としてグラフニューラルネットワーク(GNN)を提唱する。
エージェントワークフローのパフォーマンスを予測するため,GNNをベンチマークする統合プラットフォームであるFLORA-Benchを構築した。
論文 参考訳(メタデータ) (2025-03-14T11:11:00Z) - Flow: Modularized Agentic Workflow Automation [53.073598156915615]
大規模言語モデル(LLM)を利用したマルチエージェントフレームワークは、自動計画とタスク実行において大きな成功を収めている。
しかし, 実行中のエージェントの効果的な調整は十分に研究されていない。
本稿では,エージェントによる継続的なワークフロー改善を可能にするアクティビティ・オン・頂点(AOV)グラフを定義する。
提案するマルチエージェントフレームワークは,サブタスクの効率的な同時実行,効果的なゴール達成,エラー耐性の向上を実現している。
論文 参考訳(メタデータ) (2025-01-14T04:35:37Z) - AFlow: Automating Agentic Workflow Generation [36.61172223528231]
大規模言語モデル(LLM)は、様々な領域にわたる複雑なタスクを解く上で、顕著な可能性を示している。
我々は、Monte Carlo Tree Searchを使って、この空間を効率的に探索する自動化フレームワークであるAFlowを紹介します。
6つのベンチマークデータセットに対する実証的な評価は、AFlowの有効性を示し、最先端のベースラインよりも平均5.7%向上している。
論文 参考訳(メタデータ) (2024-10-14T17:40:40Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Language Agents as Optimizable Graphs [31.220547147952278]
本稿では,Large Language Models (LLM) ベースのエージェントを計算グラフとして記述する。
我々のフレームワークは、様々なLSMエージェントを効率的に開発し、統合し、自動的に改善するために使用することができる。
論文 参考訳(メタデータ) (2024-02-26T18:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。