論文の概要: ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration
- arxiv url: http://arxiv.org/abs/2511.21689v1
- Date: Wed, 26 Nov 2025 18:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.263765
- Title: ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration
- Title(参考訳): ToolOrchestra: 効率的なモデルとツールオーケストレーションによるインテリジェンス向上
- Authors: Hongjin Su, Shizhe Diao, Ximing Lu, Mingjie Liu, Jiacheng Xu, Xin Dong, Yonggan Fu, Peter Belcak, Hanrong Ye, Hongxu Yin, Yi Dong, Evelina Bakhturina, Tao Yu, Yejin Choi, Jan Kautz, Pavlo Molchanov,
- Abstract要約: 私たちは、他のモデルやさまざまなツールを管理する小さなオーケストレータが、どちらもインテリジェンスの上限を押し上げることができることを示しています。
インテリジェントなツールをコーディネートする,小さなオーケストレータのトレーニング方法であるToolOrchestraを紹介する。
ToolOrchestraを使うことで、従来のツール使用エージェントよりも低コストで精度の高い8BモデルであるOrchestratorを作成できる。
- 参考スコア(独自算出の注目度): 110.24410841004777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models are powerful generalists, yet solving deep and complex problems such as those of the Humanity's Last Exam (HLE) remains both conceptually challenging and computationally expensive. We show that small orchestrators managing other models and a variety of tools can both push the upper bound of intelligence and improve efficiency in solving difficult agentic tasks. We introduce ToolOrchestra, a method for training small orchestrators that coordinate intelligent tools. ToolOrchestra explicitly uses reinforcement learning with outcome-, efficiency-, and user-preference-aware rewards. Using ToolOrchestra, we produce Orchestrator, an 8B model that achieves higher accuracy at lower cost than previous tool-use agents while aligning with user preferences on which tools are to be used for a given query. On HLE, Orchestrator achieves a score of 37.1%, outperforming GPT-5 (35.1%) while being 2.5x more efficient. On tau2-Bench and FRAMES, Orchestrator surpasses GPT-5 by a wide margin while using only about 30% of the cost. Extensive analysis shows that Orchestrator achieves the best trade-off between performance and cost under multiple metrics, and generalizes robustly to unseen tools. These results demonstrate that composing diverse tools with a lightweight orchestration model is both more efficient and more effective than existing methods, paving the way for practical and scalable tool-augmented reasoning systems.
- Abstract(参考訳): 大規模な言語モデルは強力なジェネラリストであるが、HLE(Humanity's Last Exam)のような深い複雑な問題を解くことは概念的には困難であり、計算コストも高いままである。
私たちは、他のモデルやさまざまなツールを管理する小さなオーケストレータが、インテリジェンスの上層部を押し上げ、難しいエージェントタスクを解決するための効率を改善することができることを示しています。
インテリジェントなツールをコーディネートする,小さなオーケストレータのトレーニング方法であるToolOrchestraを紹介する。
ToolOrchestraでは、成果、効率性、ユーザ優先の報酬による強化学習を明示的に使用しています。
ToolOrchestraを使うと、Orchestratorは従来のツール使用エージェントよりも低コストで精度の高い8Bモデルになります。
HLEでは、Orchestratorのスコアは37.1%で、GPT-5(35.1%)を上回っ、効率は2.5倍である。
tau2-Bench と FRAMES では、Orchestrator は GPT-5 をはるかに上回り、コストの 30% しか使用していない。
大規模な分析によると、Orchestratorは複数のメトリクスでパフォーマンスとコストの最良のトレードオフを実現し、目に見えないツールにしっかりと一般化している。
これらの結果は、軽量なオーケストレーションモデルで多様なツールを構成することは、既存の方法よりも効率的かつ効果的であることを示し、実用的でスケーラブルなツール拡張推論システムへの道を開いた。
関連論文リスト
- One Model to Critique Them All: Rewarding Agentic Tool-Use via Efficient Reasoning [54.580646706013965]
リワードモデル(RM)は、大きな言語モデルと人間の嗜好の整合において重要な役割を果たす。
一般的なツール使用シナリオに適した軽量な生成型RMのファミリーであるToolRMを紹介する。
これらのモデルを構築するために,ルールベースのスコアリングと多次元サンプリングを用いたペアワイズ選好データを構築するパイプラインを提案する。
論文 参考訳(メタデータ) (2025-10-30T06:08:27Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z) - MetaTool: Facilitating Large Language Models to Master Tools with Meta-task Augmentation [25.360660222418183]
再利用可能なツールセットにまたがって一般化するために設計された,新しいツール学習手法であるMetaToolを紹介する。
メタタスクデータをタスク指向トレーニングに組み込むことで,オープンソースの大規模言語モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-15T10:15:41Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - GEAR: Augmenting Language Models with Generalizable and Efficient Tool
Resolution [18.633918831942434]
外部ツールを使用するために大きな言語モデル(LLM)を拡張することで、さまざまなタスクにおけるパフォーマンスが向上する。
本稿では,ツールの使用を必要とする様々なタスクに一般化可能なクエリツールグラウンドアルゴリズムであるGEARを紹介する。
論文 参考訳(メタデータ) (2023-07-17T18:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。