論文の概要: Optimizing Agentic Workflows using Meta-tools
- arxiv url: http://arxiv.org/abs/2601.22037v2
- Date: Mon, 02 Feb 2026 14:41:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.912097
- Title: Optimizing Agentic Workflows using Meta-tools
- Title(参考訳): メタツールによるエージェントワークフローの最適化
- Authors: Sami Abuzakuk, Anne-Marie Kermarrec, Rishi Sharma, Rasmus Moorits Veski, Martijn de Vos,
- Abstract要約: Agentic AIは、LLMが複雑なタスクを解決するためのツールを動的に推論し、計画し、相互作用することを可能にする。
この作業では、冗長なツール実行パターンを特定し、最適化するフレームワークであるAWO(Agent Optimization)を導入している。
AWO は LLM の呼び出し回数を 11.9% まで削減し、タスク成功率を 4.2% まで引き上げている。
- 参考スコア(独自算出の注目度): 3.3298825663516403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI enables LLM to dynamically reason, plan, and interact with tools to solve complex tasks. However, agentic workflows often require many iterative reasoning steps and tool invocations, leading to significant operational expense, end-to-end latency and failures due to hallucinations. This work introduces Agent Workflow Optimization (AWO), a framework that identifies and optimizes redundant tool execution patterns to improve the efficiency and robustness of agentic workflows. AWO analyzes existing workflow traces to discover recurring sequences of tool calls and transforms them into meta-tools, which are deterministic, composite tools that bundle multiple agent actions into a single invocation. Meta-tools bypass unnecessary intermediate LLM reasoning steps and reduce operational cost while also shortening execution paths, leading to fewer failures. Experiments on two agentic AI benchmarks show that AWO reduces the number of LLM calls up to 11.9% while also increasing the task success rate by up to 4.2 percent points.
- Abstract(参考訳): Agentic AIは、LLMが複雑なタスクを解決するためのツールを動的に推論し、計画し、相互作用することを可能にする。
しかしながら、エージェントワークフローは、多くの反復的な推論ステップとツールの実行を必要とし、幻覚による運用コスト、エンドツーエンドのレイテンシ、障害を引き起こします。
エージェントワークフローの効率性と堅牢性を改善するために、冗長なツール実行パターンを特定し、最適化するフレームワークである。
AWOは既存のワークフロートレースを分析して、繰り返し発生するツール呼び出しのシーケンスを検出して、複数のエージェントアクションを単一の呼び出しにバンドルする決定論的複合ツールであるメタツールに変換する。
メタツールは不要な中間LCM推論ステップをバイパスし、運用コストを削減し、実行パスを短縮し、失敗を少なくする。
2つのエージェントAIベンチマークの実験によると、AWOはLLMコール数を最大11.9%削減し、タスク成功率を最大4.2%向上させる。
関連論文リスト
- ML-Tool-Bench: Tool-Augmented Planning for ML Tasks [23.54937738755734]
ツール強化機械学習エージェントの評価のためのベンチマークを導入する。
私たちのベンチマークは、インメモリ名のオブジェクト管理を組み込むことで、従来のツール使用の評価を超えています。
我々のアプローチはReActよりも16.2%向上し、すべてのKaggle課題の中央値を取ります。
論文 参考訳(メタデータ) (2025-11-29T23:59:40Z) - Multi-Agent Tool-Integrated Policy Optimization [67.12841355267678]
大規模言語モデル(LLM)は、知識集約的かつ複雑な推論タスクに対して、多ターンツール統合計画にますます依存している。
既存の実装は通常、単一のエージェントに依存するが、コンテキスト長とノイズの多いツールレスポンスに悩まされる。
ツール統合マルチエージェントフレームワークの効果的な強化学習をサポートする方法はない。
論文 参考訳(メタデータ) (2025-10-06T10:44:04Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - TUMS: Enhancing Tool-use Abilities of LLMs with Multi-structure Handlers [8.34574238496256]
本稿では,大規模言語モデルのツール利用能力を高めるための新しいフレームワークであるTUMSを提案する。
本フレームワークは,(1)LLMがタスクをよりよく理解するためのユーザ意図を識別するインテント認識器,(2)複雑なタスクを単純なサブタスクに分解するタスク分解器,(3)高精度なパラメータを生成するマルチ構造ハンドラを備えたサブタスクプロセッサの4つで構成されている。
我々の実証研究は、TUMSフレームワークの有効性と効率を、平均19.6%と50.6%で証明した。
論文 参考訳(メタデータ) (2025-05-13T09:57:28Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。