論文の概要: Try, Check and Retry: A Divide-and-Conquer Framework for Boosting Long-context Tool-Calling Performance of LLMs
- arxiv url: http://arxiv.org/abs/2603.11495v1
- Date: Thu, 12 Mar 2026 03:30:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.844255
- Title: Try, Check and Retry: A Divide-and-Conquer Framework for Boosting Long-context Tool-Calling Performance of LLMs
- Title(参考訳): Try, Check and Retry: LLMの長文ツールカートリング性能向上のための分断型フレームワーク
- Authors: Kunfeng Chen, Qihuang Zhong, Juhua Liu, Bo Du, Dacheng Tao,
- Abstract要約: Tool-DCは、大規模言語モデルのツール呼び出し性能を高めるためのDivide-and-Conquerフレームワークである。
Tool-DCには2つのバリエーションがある: 1) プラグアンドプレイでフレキシブルなトレーニングフリーツールDC(TF)、2) より推論効率のよいトレーニングベースツールDC(TB)。
広範にわたる実験により、ツール-DC法は両者を明らかなマージンで上回る結果となった。
- 参考スコア(独自算出の注目度): 78.58042751671393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool-calling empowers Large Language Models (LLMs) to interact with external environments. However, current methods often struggle to handle massive and noisy candidate tools in long-context tool-calling tasks, limiting their real-world application. To this end, we propose Tool-DC, a Divide-and-Conquer framework for boosting tool-calling performance of LLMs. The core of Tool-DC is to reduce the reasoning difficulty and make full use of self-reflection ability of LLMs via a "Try-Check-Retry" paradigm. Specifically, Tool-DC involves two variants: 1) the training-free Tool-DC (TF), which is plug-and-play and flexible; 2) the training-based Tool-DC (TB), which is more inference-efficient. Extensive experiments show that both Tool-DC methods outperform their counterparts by a clear margin. Tool-DC (TF) brings up to +25.10% average gains against the baseline on BFCL and ACEBench benchmarks, while Tool-DC (TB) enables Qwen2.5-7B to achieve comparable or even better performance than proprietary LLMs, e.g., OpenAI o3 and Claude-Haiku-4.5.
- Abstract(参考訳): ツールコールにより、LLM(Large Language Models)が外部環境と対話できるようになる。
しかしながら、現在のメソッドは、長いコンテキストのツールコールタスクにおいて、大規模でノイズの多い候補ツールを扱うのに苦労し、現実のアプリケーションを制限します。
そこで本稿では,LDMのツールコール性能向上のためのDivide-and-ConquerフレームワークであるTool-DCを提案する。
Tool-DCの中核は、推論の難しさを減らし、"Try-Check-Retry"パラダイムを通じてLLMの自己回帰能力を完全に活用することである。
具体的には、Tool-DCには2つのバリエーションがある。
1) プラグアンドプレイでフレキシブルなトレーニングフリーのツールDC(TF)
2) トレーニングベースであるTool-DC (TB) は, より推論効率がよい。
広範にわたる実験により、ツール-DC法は両者を明らかなマージンで上回る結果となった。
Tool-DC (TF) は BFCL と ACEBench ベンチマークのベースラインに対する平均利得が +25.10% に達する一方、Tool-DC (TB) は Qwen2.5-7B をプロプライエタリな LLM や OpenAI o3 や Claude-Haiku-4.5 と同等あるいはそれ以上のパフォーマンスを達成することができる。
関連論文リスト
- Teaching LLMs to Learn Tool Trialing and Execution through Environment Interaction [31.689383152872534]
ToolMasterは、ツールの使用を黄金のツール呼び出しトラジェクトリの模倣から、環境とのインタラクションを通じてツールの使用を積極的に学習するフレームワークである。
ツール計画と実行のためにLLMを最適化するために、ToolMasterはトライアルと実行のパラダイムを採用している。
実験の結果、ツールマスターは、見知らぬツールや馴染みのないツールをまたいだ一般化や堅牢性という点で、既存のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2026-01-19T06:46:33Z) - Tool-R1: Sample-Efficient Reinforcement Learning for Agentic Tool Use [50.02614257515131]
大規模言語モデル(LLM)は、言語理解と推論において強力な能力を示している。
本稿では,LLMの汎用的,構成的,多段階的なツール使用を可能にする強化学習フレームワークであるTool-R1を提案する。
論文 参考訳(メタデータ) (2025-09-16T09:22:21Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [63.08202389132155]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。