論文の概要: W&D:Scaling Parallel Tool Calling for Efficient Deep Research Agents
- arxiv url: http://arxiv.org/abs/2602.07359v1
- Date: Sat, 07 Feb 2026 04:49:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.584537
- Title: W&D:Scaling Parallel Tool Calling for Efficient Deep Research Agents
- Title(参考訳): W&D:効率的なディープリサーチエージェントのための並列ツールのスケーリング
- Authors: Xiaoqiang Lin, Jun Hao Liew, Silvio Savarese, Junnan Li,
- Abstract要約: そこで本稿では,エージェントの動作と性能を,深さだけでなく幅を並列ツールコールでスケーリングする際のフレームワークを提案する。
本研究では,スケーリング幅が深層調査ベンチマークの性能を著しく向上すると同時に,正しい回答を得るために必要なターン数を削減できることを実証する。
以上の結果から,幅と深さのトレードオフを最適化することが,高効率深層研究エージェントへの重要な経路であることが示唆された。
- 参考スコア(独自算出の注目度): 48.22725588392165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep research agents have emerged as powerful tools for automating complex intellectual tasks through multi-step reasoning and web-based information seeking. While recent efforts have successfully enhanced these agents by scaling depth through increasing the number of sequential thinking and tool calls, the potential of scaling width via parallel tool calling remains largely unexplored. In this work, we propose the Wide and Deep research agent, a framework designed to investigate the behavior and performance of agents when scaling not only depth but also width via parallel tool calling. Unlike existing approaches that rely on complex multi-agent orchestration to parallelize workloads, our method leverages intrinsic parallel tool calling to facilitate effective coordination within a single reasoning step. We demonstrate that scaling width significantly improves performance on deep research benchmarks while reducing the number of turns required to obtain correct answers. Furthermore, we analyze the factors driving these improvements through case studies and explore various tool call schedulers to optimize parallel tool calling strategy. Our findings suggest that optimizing the trade-off between width and depth is a critical pathway toward high-efficiency deep research agents. Notably, without context management or other tricks, we obtain 62.2% accuracy with GPT-5-Medium on BrowseComp, surpassing the original 54.9% reported by GPT-5-High.
- Abstract(参考訳): ディープリサーチエージェントは、多段階の推論とWebベースの情報検索を通じて、複雑な知的タスクを自動化する強力なツールとして登場した。
最近の取り組みは、シーケンシャルな思考とツールコールの数を増やすことで、これらのエージェントのスケーリングを成功させてきたが、並列ツール呼び出しによる幅のスケーリングの可能性はほとんど解明されていない。
本研究では, 深度だけでなく, 並列ツール呼び出しによる幅のスケーリングにおけるエージェントの挙動と性能を調査するフレームワークであるワイド・アンド・ディープ・リサーチ・エージェントを提案する。
ワークロードを並列化する複雑なマルチエージェントオーケストレーションに依存する既存のアプローチとは異なり、本手法では、固有の並列ツール呼び出しを活用して、単一の推論ステップ内で効果的なコーディネーションを容易にする。
本研究では,スケーリング幅が深層調査ベンチマークの性能を著しく向上すると同時に,正しい回答を得るために必要なターン数を削減できることを実証する。
さらに、ケーススタディを通じてこれらの改善を導く要因を分析し、様々なツール呼び出しスケジューラを探索し、並列ツール呼び出し戦略を最適化する。
以上の結果から,幅と深さのトレードオフを最適化することが,高効率深層研究エージェントへの重要な経路であることが示唆された。
特に、コンテキスト管理やその他のトリックなしで、GPT-5-Medium on BrowseCompで62.2%の精度を得、GPT-5-Highが報告した54.9%を上回った。
関連論文リスト
- WideSeek-R1: Exploring Width Scaling for Broad Information Seeking via Multi-Agent Reinforcement Learning [15.087327596252932]
既存のマルチエージェントシステムは、作業の並列化に失敗した手作りとターンテイクのインタラクションに依存していることが多い。
拡張性のあるオーケストレーションと並列実行を相乗化するために,マルチエージェント強化学習(MARL)を用いてトレーニングされたリードエージェントサブエージェントフレームワークであるWideSeek-R1を提案する。
WideSeek-R1-4Bは、シングルエージェントのDeepSeek-R1-671Bのパフォーマンスに匹敵する、WideSearchベンチマークで40.0%のアイテムF1スコアを達成している。
論文 参考訳(メタデータ) (2026-02-04T15:05:12Z) - IntentRL: Training Proactive User-intent Agents for Open-ended Deep Research via Reinforcement Learning [54.21689544323704]
Deep Research (DR)エージェントは、パラメトリック知識を超えてLarge Language Models (LLM)を拡張する。
リアルタイムの会話アシスタントとは異なり、DRは計算に高価で時間を要する。
IntentRLは、長期研究を始める前に、潜在ユーザ意図を明らかにするためにプロアクティブエージェントを訓練するフレームワークである。
論文 参考訳(メタデータ) (2026-02-03T12:43:09Z) - WideSeek: Advancing Wide Research via Multi-Agent Scaling [29.02742625120584]
ワイドリサーチ(英: Wide Research)は、複雑な制約の下で複雑な情報を並列に合成・合成するためのパラダイムである。
データパイプラインとエージェント最適化という2つの観点から、ワイドリサーチを深く掘り下げています。
まず、厳密な多相データパイプラインを用いて構築されたベンチマークであるWideSeekBenchを作成し、ターゲット情報ボリュームの多様性を保証する。
第2に,タスク要求に基づいて並列サブエージェントを自律的にフォークできる動的階層型マルチエージェントアーキテクチャであるWideSeekを紹介する。
論文 参考訳(メタデータ) (2026-02-02T18:32:48Z) - Deep Researcher with Sequential Plan Reflection and Candidates Crossover (Deep Researcher Reflect Evolve) [0.0]
本稿では、複雑なPhDレベルのトピックに関する詳細な研究レポートを作成するために設計された、新しいDeep Researcherアーキテクチャを提案する。
本システムでは,リフレクションによる逐次研究計画修正と候補クロスオーバーアルゴリズムという,2つの重要なイノベーションを活用している。
我々の建築は46.21点を達成し、先進的な深層研究エージェントを超越して優れた性能を示した。
論文 参考訳(メタデータ) (2026-01-28T18:45:39Z) - ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking [59.65564262588308]
並列思考は探索範囲を広げ、情報探索(IS)エージェントの深い探索を補完する。
ディープISエージェント用に設計された2段階パラダイムであるParallelMuseを提案する。
複数のオープンソースエージェントとベンチマークの実験では、最大62%のパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2025-10-28T17:51:50Z) - DeepDive: Advancing Deep Search Agents with Knowledge Graphs and Multi-Turn RL [60.47878242100153]
我々は、ディープサーチエージェントを進化させるためにDeepDiveを提示する。
オープンな知識グラフから複雑で難解な質問を自動的に合成する戦略を提案する。
深層探索によるLLMの長距離推論を強化するために, エンドツーエンドのマルチターン強化学習を適用した。
論文 参考訳(メタデータ) (2025-09-12T17:52:35Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。