論文の概要: Don't Adapt Small Language Models for Tools; Adapt Tool Schemas to the Models
- arxiv url: http://arxiv.org/abs/2510.07248v1
- Date: Wed, 08 Oct 2025 17:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.658783
- Title: Don't Adapt Small Language Models for Tools; Adapt Tool Schemas to the Models
- Title(参考訳): ツールの小さな言語モデルに適応しない; ツールスキーマをモデルに適応させる
- Authors: Jonggeun Lee, Woojung Song, Jongwook Han, Haesung Pyun, Yohan Jo,
- Abstract要約: 小型言語モデル(SLM)は、ツール強化されたAIシステムに対して大きな計算上のアドバンテージを提供する。
ツールの使用タスク、特に適切なツールの選択と正確なパラメータの特定に苦労する。
モデルの事前訓練された知識に合わせてスキーマを適用することを提案する。
MetaToolとRoTBenchの実験では、最大17%の改善があり、スキーマのミスアライメントエラーが80%削減された。
- 参考スコア(独自算出の注目度): 13.697586490157299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Small language models (SLMs) offer significant computational advantages for tool-augmented AI systems, yet they struggle with tool-use tasks, particularly in selecting appropriate tools and identifying correct parameters. A common failure mode is schema misalignment: models hallucinate plausible but non-existent tool names that reflect naming conventions internalized during pretraining but absent from the provided tool schema. Rather than forcing models to adapt to arbitrary schemas, we propose adapting schemas to align with models' pretrained knowledge. We introduce PA-Tool (Pretraining-Aligned Tool Schema Generation), a training-free method that leverages peakedness-a signal from contamination detection indicating pretraining familiarity-to automatically rename tool components. By generating multiple candidates and selecting those with highest output concentration across samples, PA-Tool identifies pretrain-aligned naming patterns. Experiments on MetaTool and RoTBench show improvements of up to 17% points, with schema misalignment errors reduced by 80%. PA-Tool enables small models to approach state-of-the-art performance while maintaining computational efficiency for adaptation to new tools without retraining. Our work demonstrates that schema-level interventions can unlock the tool-use potential of resource-efficient models by adapting schemas to models rather than models to schemas.
- Abstract(参考訳): スモールランゲージモデル(SLM)は、ツール強化されたAIシステムに対して大きな計算上の優位性を提供するが、ツール使用タスク、特に適切なツールの選択と正しいパラメータの特定に苦慮している。
モデルでは、事前トレーニング中に内部化された命名規則を反映して、提供されたツールスキーマが欠如している。
任意のスキーマにモデルを適応させるのではなく、モデルの事前訓練された知識に合わせてスキーマを適用することを提案する。
PAツール(Pretraining-Aligned Tool Schema Generation)は,習熟前の親しみやすさを示す汚染検出からのピーク時信号を利用して,ツールコンポーネントを自動的にリネームするトレーニングフリーな手法である。
複数の候補を生成し、サンプル間で高い出力濃度の候補を選択することで、PA-Toolはトレーニング前の命名パターンを識別する。
MetaToolとRoTBenchの実験では、最大17%の改善があり、スキーマのミスアライメントエラーが80%削減された。
PA-Toolは、新しいツールに適応するための計算効率を維持しつつ、小さなモデルで最先端のパフォーマンスにアプローチすることを可能にする。
私たちの研究は、スキーマレベルの介入が、モデルではなくモデルにスキーマを適用することによって、リソース効率の良いモデルのツール使用可能性の解放を可能にすることを実証しています。
関連論文リスト
- Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - ToolACE-DEV: Self-Improving Tool Learning via Decomposition and EVolution [77.86222359025011]
ツール学習のための自己改善フレームワークであるToolACE-DEVを提案する。
まず、ツール学習の目的を、基本的なツール作成とツール利用能力を高めるサブタスクに分解する。
次に、軽量モデルによる自己改善を可能にする自己進化パラダイムを導入し、高度なLCMへの依存を減らす。
論文 参考訳(メタデータ) (2025-05-12T12:48:30Z) - ToolACE-R: Model-aware Iterative Training and Adaptive Refinement for Tool Learning [84.69651852838794]
ツール学習により、LLM(Large Language Models)は複雑なユーザタスクを解決するための外部ツールを活用することができる。
本稿では,ツール学習のための反復学習と適応的洗練の両方を含む新しいフレームワークであるToolACE-Rを提案する。
我々は、いくつかのベンチマークデータセットにわたる広範な実験を行い、ToolACE-Rが高度なAPIベースのモデルと比較して、競争力のあるパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-04-02T06:38:56Z) - Meta-Reasoning Improves Tool Use in Large Language Models [10.193264105560864]
本稿では,タスクを最初に理由付け,候補ツールを出力する2段階システムであるTECTON(Meta-reasONing)によるツール選択を提案する。
TECTONは、様々な数学推論データセットにおいて、分布内と分布外の両方において、実質的なゲインをもたらす。
論文 参考訳(メタデータ) (2024-11-07T08:48:33Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Tool-Planner: Task Planning with Clusters across Multiple Tools [30.25234781338571]
ツールキットに基づくタスク処理フレームワークであるTool-Plannerを提案する。
Tool-Plannerは同じ関数を持つAPI関数をツールキットにグループ化する。
ツールエラーが発生した場合、言語モデルはツールキットに基づいてツールを再選択し、調整することができる。
論文 参考訳(メタデータ) (2024-06-06T07:30:14Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。