論文の概要: Natural Language Tools: A Natural Language Approach to Tool Calling In Large Language Agents
- arxiv url: http://arxiv.org/abs/2510.14453v1
- Date: Thu, 16 Oct 2025 08:52:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.785616
- Title: Natural Language Tools: A Natural Language Approach to Tool Calling In Large Language Agents
- Title(参考訳): 自然言語ツール: 大規模エージェントでツールを呼び出すための自然言語アプローチ
- Authors: Reid T. Johnson, Michelle D. Pain, Jordan D. West,
- Abstract要約: 我々は,大規模言語モデルにおけるプログラムツール呼び出しを自然言語出力に置き換えるフレームワークであるNatural Language Tools (NLT)を提示する。
NLTはツール呼び出しの精度を18.4ポイント改善し、出力分散を70%削減した。
オープンウェイトモデルは最大の伸びを示し、フラッグシップのクローズドウェイトモデルを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Natural Language Tools (NLT), a framework that replaces programmatic JSON tool calling in large language models (LLMs) with natural language outputs. By decoupling tool selection from response generation, NLT eliminates task interference and format constraints that degrade tool call performance. When evaluated across 10 models and 6,400 trials spanning customer service and mental health domains, NLT improves tool calling accuracy by 18.4 percentage points while reducing output variance by 70%. Open-weight models see the largest gains, surpassing flagship closed-weight alternatives, with implications for model training in both reinforcement learning and supervised fine-tuning stages. These improvements persist under prompt perturbations and extend tool-calling capabilities to models lacking native support.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を自然言語出力に置き換えるフレームワークであるNatural Language Tools(NLT)を紹介する。
ツールの選択を応答生成から切り離すことで、NLTはタスクの干渉やフォーマットの制約を排除し、ツールコールのパフォーマンスを低下させる。
顧客サービスとメンタルヘルスドメインにまたがる10のモデルと6400のトライアルで評価された場合、NLTはツール呼び出し精度を18.4ポイント改善し、出力分散を70%削減した。
オープンウェイトモデルは、フラグシップのクローズドウェイト(クローズドウェイト)モデルを上回っ、強化学習と教師付き微調整段階の両方におけるモデルトレーニングに影響を及ぼす。
これらの改善は、迅速な摂動の下で継続され、ネイティブサポートを持たないモデルにツール呼び出し機能を拡張する。
関連論文リスト
- RLFactory: A Plug-and-Play Reinforcement Learning Post-Training Framework for LLM Multi-Turn Tool-Use [50.52940111891476]
大きな言語モデルは基本的な推論では優れているが、外部ツールとのインタラクションを必要とするタスクには苦労する。
マルチラウンドツール用プラグイン・アンド・プレイ強化学習フレームワークであるRLFactoryを提案する。
論文 参考訳(メタデータ) (2025-08-31T16:47:31Z) - Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - Teaching a Language Model to Speak the Language of Tools [0.0]
この研究は、既存の言語モデルを適用するための方法論を示し、あらゆるターゲット言語で堅牢なツールの使用を可能にする。
この研究は、基本モデルよりも関数呼び出し精度を最大28.75%改善するTUCANを紹介している。
論文 参考訳(メタデータ) (2025-06-29T20:47:27Z) - Advancing Tool-Augmented Large Language Models via Meta-Verification and Reflection Learning [63.2198957755528]
本稿では,2つの重要なイノベーションを通じてシステム2推論を包括的に行う新しいツール拡張LDMであるTool-MVRを提案する。
具体的には、まず、API、クエリ、推論トラジェクトリを厳格に検証する体系的なパイプラインであるMulti-Agent Meta-Verification(MAMV)を紹介します。
第2に,ツールフィードバックを活用することで,ツールのリフレクション機能を向上させるExploration-based Reflection Learning (EXPLORE)を提案する。
論文 参考訳(メタデータ) (2025-06-05T04:35:49Z) - Flexible Tool Selection through Low-dimensional Attribute Alignment of Vision and Language [9.378472434981088]
柔軟なツール選択は、人間が他の種と区別する複雑な認知能力を反映している。
視覚的ツール認識と言語的タスク理解を橋渡しするために,低次元属性表現を用いたフレームワークを開発した。
論文 参考訳(メタデータ) (2025-05-28T09:06:04Z) - Nemotron-Research-Tool-N1: Exploring Tool-Using Language Models with Reinforced Reasoning [93.30252692375886]
ルールベースの強化学習は、大きな言語モデルにおけるツールコールを強化するために使用することができる。
ツールN1-7B/14Bはいくつかの主要なベンチマークでGPT-4oを上回った。
論文 参考訳(メタデータ) (2025-04-25T02:55:21Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z) - QueEn: A Large Language Model for Quechua-English Translation [20.377876059048692]
本稿では,Retrieval-Augmented Generation(RAG)とパラメータ効率のよい微調整技術を組み合わせた,ケチュア英訳の新しい手法であるQueEnを提案する。
BLEUスコアは標準GPTモデルの1.5に対して17.6である。
論文 参考訳(メタデータ) (2024-12-06T17:04:21Z) - ToolAlpaca: Generalized Tool Learning for Language Models with 3000
Simulated Cases [49.7798644853604]
本稿では,多種多様なツール利用コーパスを自動生成し,コンパクト言語モデル上での汎用ツール利用能力を学習するためのフレームワークであるToolAlpacaを紹介する。
ToolAlpacaは,GPT-3.5のような非常に大きな言語モデルに匹敵する,効果的な汎用ツール利用能力を実現する。
論文 参考訳(メタデータ) (2023-06-08T15:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。