論文の概要: Verification-Guided Context Optimization for Tool Calling via Hierarchical LLMs-as-Editors
- arxiv url: http://arxiv.org/abs/2512.13860v1
- Date: Mon, 15 Dec 2025 19:48:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.474998
- Title: Verification-Guided Context Optimization for Tool Calling via Hierarchical LLMs-as-Editors
- Title(参考訳): 階層型LLM-as-Editorsによるツール呼び出しのための検証誘導型コンテキスト最適化
- Authors: Henger Li, Shuangjie You, Flavio Di Palo, Yiyue Qian, Ayush Jain,
- Abstract要約: ツール関連のドキュメンテーションや知識ベースコンテキストを自動的に洗練する,大規模言語モデルをエディタとして使用するフレームワークであるVGCOを提案する。
まず、ツール呼び出しワークフローに自然に統合される階層構造を使用する。
第二に、状態認識、アクション特化、検証誘導であり、検索スペースを制限し、効率的で目標とする改善を可能にする。
- 参考スコア(独自算出の注目度): 6.990045323115733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tool calling enables large language models (LLMs) to interact with external environments through tool invocation, providing a practical way to overcome the limitations of pretraining. However, the effectiveness of tool use depends heavily on the quality of the associated documentation and knowledge base context. These materials are usually written for human users and are often misaligned with how LLMs interpret information. This problem is even more pronounced in industrial settings, where hundreds of tools with overlapping functionality create challenges in scalability, variability, and ambiguity. We propose Verification-Guided Context Optimization (VGCO), a framework that uses LLMs as editors to automatically refine tool-related documentation and knowledge base context. VGCO works in two stages. First, Evaluation collects real-world failure cases and identifies mismatches between tools and their context. Second, Optimization performs hierarchical editing through offline learning with structure-aware, in-context optimization. The novelty of our LLM editors has three main aspects. First, they use a hierarchical structure that naturally integrates into the tool-calling workflow. Second, they are state-aware, action-specific, and verification-guided, which constrains the search space and enables efficient, targeted improvements. Third, they enable cost-efficient sub-task specialization, either by prompt engineering large editor models or by post-training smaller editor models. Unlike prior work that emphasizes multi-turn reasoning, VGCO focuses on the single-turn, large-scale tool-calling problem and achieves significant improvements in accuracy, robustness, and generalization across LLMs.
- Abstract(参考訳): ツール呼び出しは、ツール呼び出しを通じて、大きな言語モデル(LLM)が外部環境と対話することを可能にし、事前トレーニングの制限を克服する実用的な方法を提供する。
しかし、ツールの使用の有効性は、関連するドキュメントや知識ベースコンテキストの品質に大きく依存する。
これらの資料は通常、人間のユーザー向けに書かれており、LLMがどのように情報を解釈するかと不一致であることが多い。
産業環境では、重複する機能を備えた何百ものツールがスケーラビリティ、可変性、あいまいさの課題を生み出します。
ツール関連文書や知識ベースコンテキストを自動的に洗練するために,LLMをエディタとして使用するフレームワークであるVerification-Guided Context Optimization (VGCO)を提案する。
VGCOは2段階で動作する。
まず、評価は現実世界の障害事例を収集し、ツールとそれらのコンテキストのミスマッチを特定する。
第二に、最適化はオフライン学習を通じて階層的な編集を行う。
LLMエディタの新規性には3つの主な側面がある。
まず、ツール呼び出しワークフローに自然に統合される階層構造を使用する。
第二に、状態認識、アクション特化、検証誘導であり、検索スペースを制限し、効率的で目標とする改善を可能にする。
第3に、大きなエディタモデルをプロンプトするか、より小さなエディタモデルをトレーニングした後で、コスト効率の低いサブタスクの特殊化を可能にする。
マルチターン推論を強調する以前の作業とは異なり、VGCOはシングルターン、大規模ツール呼び出しの問題に重点を置いており、LLM間の精度、堅牢性、一般化の大幅な改善を実現している。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - TL-Training: A Task-Feature-Based Framework for Training Large Language Models in Tool Use [72.32614703504122]
大規模言語モデル(LLM)は、環境と対話するツールを活用することで、目覚ましい進歩を遂げる。
大規模なデータセットに依存する標準教師付き微調整アプローチでは、ツール使用時のタスク固有の特性を見落としていることが多い。
本稿では,最適下トレーニングデータの効果を緩和するタスク機能ベースのフレームワークであるTL-Trainingを提案する。
論文 参考訳(メタデータ) (2024-12-20T02:21:36Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。