論文の概要: $A^2Flow:$ Automating Agentic Workflow Generation via Self-Adaptive Abstraction Operators
- arxiv url: http://arxiv.org/abs/2511.20693v1
- Date: Sun, 23 Nov 2025 07:32:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.755865
- Title: $A^2Flow:$ Automating Agentic Workflow Generation via Self-Adaptive Abstraction Operators
- Title(参考訳): A^2Flow:$ Automating Agentic Workflow Generation by Self-Adaptive Abstraction Operators
- Authors: Mingming Zhao, Xiaokang Wei, Yuanqi Shao, Kaiwen Zhou, Lin Yang, Siwei Rao, Junhui Zhan, Zhitang Chen,
- Abstract要約: A2Flow$は、自己適応的な抽象化演算子に基づくエージェントワークフロー生成のためのフレームワークである。
A2Flow$は3段階の演算子抽出プロセスを採用している。
一般的なベンチマークと具体化ベンチマークの実験では、$A2$は2.4%、平均性能は19.3%向上している。
- 参考スコア(独自算出の注目度): 23.67659048792171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown strong potential in automating the design of agentic workflows. However, existing methods still rely heavily on manually predefined operators, limiting generalization and scalability. To address this issue, we propose $A^2Flow$, a fully automated framework for agentic workflow generation based on self-adaptive abstraction operators. $A^2Flow$ employs a three-stage operator extraction process: 1) Case-based Initial Operator Generation: leveraging expert demonstrations and LLM reasoning to generate case-specific operators; 2) Operator Clustering and Preliminary Abstraction: grouping similar operators across tasks to form preliminary abstractions; and 3) Deep Extraction for Abstract Execution Operators: applying long chain-of-thought prompting and multi-path reasoning to derive compact and generalizable execution operators. These operators serve as reusable building blocks for workflow construction without manual predefinition. Furthermore, we enhance node-level workflow search with an operator memory mechanism, which retains historical outputs to enrich context and improve decision-making. Experiments on general and embodied benchmarks show that $A^2Flow$ achieves a 2.4\% and 19.3\% average performance improvement and reduces resource usage by 37\% over state-of-the-art baselines. Homepage:https://github.com/pandawei-ele/A2FLOW
- Abstract(参考訳): 大規模言語モデル(LLM)はエージェントワークフローの設計を自動化する強力な可能性を示している。
しかし、既存のメソッドは依然として手動で定義した演算子に大きく依存しており、一般化とスケーラビリティが制限されている。
この問題に対処するために,自己適応的抽象演算子に基づくエージェントワークフロー生成のための完全に自動化されたフレームワークである$A^2Flow$を提案する。
A^2Flow$は3段階の演算子抽出プロセスを使用します。
1) 事例に基づく初期演算子生成:専門家による実演とLLM推論を活用してケース固有演算子を生成する。
2)演算子クラスタリングと予備抽象:類似演算子をタスク全体でグループ化し、予備抽象を形成する。
3) 抽象的実行演算子に対する深い抽出: コンパクトで一般化可能な実行演算子を導出するために、長いチェーンのプロンプトとマルチパス推論を適用する。
これらのオペレータは、手作業による事前定義なしにワークフロー構築のための再利用可能なビルディングブロックとして機能する。
さらに,演算子メモリ機構によるノードレベルのワークフロー探索を強化し,履歴出力を保存してコンテキストを充実させ,意思決定を改善する。
一般的なベンチマークと具体化ベンチマークの実験では、$A^2Flow$ は 2.4 % と 19.3 % の平均的なパフォーマンス向上を実現し、最先端のベースラインよりも37 % のリソース使用量を削減している。
ホームページ:https://github.com/pandawei-ele/A2FLOW
関連論文リスト
- DyFlow: Dynamic Workflow Framework for Agentic Reasoning [79.19799197382478]
DyFlowは動的ワークフロー生成フレームワークで、タスク要求とリアルタイム中間フィードバックに基づいて推論手順を適応的に構築し、調整する。
社会的推論,生物医学的タスク,数学的問題解決,コード生成など,さまざまな領域でDyFlowを体系的に評価する。
結果は、DyFlowが既存のベースラインを大幅に上回り、Pass@kの改善を実現し、さまざまなドメインにわたって堅牢な一般化を示すことを示した。
論文 参考訳(メタデータ) (2025-09-30T10:36:23Z) - Murakkab: Resource-Efficient Agentic Workflow Orchestration in Cloud Platforms [7.6151320996822625]
MurakkabはエージェントAIアプリケーションのためのリソース効率の高いサービスシステムである。
サービスレベルの目標(SLO)を維持しつつ、使用量を最大2.8ドル、エネルギー消費を3.7ドル、コストを4.3ドルに削減することを示す。
多様なGPUに対する評価では、MurakkabはSLOを維持しながらGPU使用量を最大2.8$times$、エネルギー消費を3.7$times$、コストを4.3$times$に削減している。
論文 参考訳(メタデータ) (2025-08-22T17:41:27Z) - AgentSwift: Efficient LLM Agent Design via Value-guided Hierarchical Search [58.98450205734779]
大規模言語モデル(LLM)エージェントは、多様なドメインにまたがる強力な機能を示している。
既存のエージェントサーチ手法には3つの大きな制限がある。
これらの課題に対処するための包括的なフレームワークを導入します。
論文 参考訳(メタデータ) (2025-06-06T12:07:23Z) - EvoFlow: Evolving Diverse Agentic Workflows On The Fly [21.82515160298748]
EvoFlowは、複雑で異質なエージェントの集団を自動的に検索する、ニッチな進化アルゴリズムベースのフレームワークである。
EvoFlowは、単純なI/Oタスクから複雑なマルチターンインタラクションまで、多くの個体群を進化させることができる。
論文 参考訳(メタデータ) (2025-02-11T08:48:46Z) - WorkflowLLM: Enhancing Workflow Orchestration Capability of Large Language Models [105.46456444315693]
ワークフローオーケストレーションにおける大規模言語モデルの能力を高めるための,データ中心のフレームワークであるLLMを提案する。
最初は106,763のサンプルで大規模な微調整Benchを構築し、28のカテゴリにわたる83のアプリケーションから1,503のAPIをカバーしている。
LlamaLlamaは複雑なAPIをオーケストレーションする能力を示しながら、優れた一般化性能を実現している。
論文 参考訳(メタデータ) (2024-11-08T09:58:02Z) - AFlow: Automating Agentic Workflow Generation [36.61172223528231]
大規模言語モデル(LLM)は、様々な領域にわたる複雑なタスクを解く上で、顕著な可能性を示している。
我々は、Monte Carlo Tree Searchを使って、この空間を効率的に探索する自動化フレームワークであるAFlowを紹介します。
6つのベンチマークデータセットに対する実証的な評価は、AFlowの有効性を示し、最先端のベースラインよりも平均5.7%向上している。
論文 参考訳(メタデータ) (2024-10-14T17:40:40Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。