論文の概要: Unified Tool Integration for LLMs: A Protocol-Agnostic Approach to Function Calling
- arxiv url: http://arxiv.org/abs/2508.02979v1
- Date: Tue, 05 Aug 2025 01:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.726822
- Title: Unified Tool Integration for LLMs: A Protocol-Agnostic Approach to Function Calling
- Title(参考訳): LLMのための統一ツール統合:関数呼び出しに対するプロトコルに依存しないアプローチ
- Authors: Peng Ding, Rick Stevens,
- Abstract要約: 大規模言語モデル(LLM)は、開発者が複数のプロトコルをナビゲートしなければならない断片化されたエコシステムを作り上げた。
本稿では,実行性能を最適化しながらプロトコルの違いを抽象化するツール統合への統一的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.2935057904849891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of tool-augmented Large Language Models (LLMs) has created a fragmented ecosystem where developers must navigate multiple protocols, manual schema definitions, and complex execution workflows. We address this challenge by proposing a unified approach to tool integration that abstracts protocol differences while optimizing execution performance. Our solution demonstrates how protocol-agnostic design principles can significantly reduce development overhead through automated schema generation, dual-mode concurrent execution, and seamless multi-source tool management. Experimental results show 60-80% code reduction across integration scenarios, performance improvements up to 3.1x through optimized concurrency, and full compatibility with existing function calling standards. This work contributes both theoretical insights into tool integration architecture and practical solutions for real-world LLM application development.
- Abstract(参考訳): ツール拡張大型言語モデル(LLM)の普及により、開発者は複数のプロトコル、手動スキーマ定義、複雑な実行ワークフローをナビゲートしなければならない、断片化されたエコシステムが誕生した。
我々は、実行性能を最適化しながらプロトコルの違いを抽象化するツール統合への統一的なアプローチを提案することで、この問題に対処する。
我々のソリューションは、自動スキーマ生成、デュアルモード同時実行、シームレスなマルチソースツール管理によって、プロトコルに依存しない設計原則が開発オーバーヘッドを大幅に削減できることを示す。
実験の結果、統合シナリオ間の60-80%のコード削減、最適化された並行処理による3.1倍のパフォーマンス向上、既存の関数呼び出し標準との完全な互換性が示されている。
この研究は、ツール統合アーキテクチャに関する理論的知見と、現実のLLMアプリケーション開発のための実用的なソリューションの両方に貢献する。
関連論文リスト
- ToolRegistry: A Protocol-Agnostic Tool Management Library for Function-Calling LLMs [1.3830651939939742]
toolregistryはプロトコルに依存しないツール管理ライブラリで、ツール登録、表現、実行、ライフサイクル管理を簡単にする。
ツールレジストリは、ツール統合コードの60-80%の削減、同時実行による最大3.1倍のパフォーマンス向上、OpenAI関数呼び出し標準との100%互換性を実現している。
論文 参考訳(メタデータ) (2025-07-11T20:23:23Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - ToolACE-R: Tool Learning with Adaptive Self-Refinement [84.69651852838794]
ツール学習により、大規模言語モデルは複雑なユーザタスクを解決するための外部ツールを活用することができる。
本稿では,ツール実行のための適応型自己調整手法であるToolACE-Rを提案する。
提案手法は,様々なサイズのベースモデルと互換性のある提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-04-02T06:38:56Z) - IMPROVE: Iterative Model Pipeline Refinement and Optimization Leveraging LLM Experts [40.98057887166546]
機械学習のワークフローを自動化するための有望なソリューションとして、大規模言語モデル(LLM)エージェントが登場した。
LLM駆動のMLパイプライン設計のための新しい戦略であるIterative Refinementを紹介します。
実際のトレーニングフィードバックに基づいて個々のコンポーネントを体系的に更新することにより、イテレーティブリファインメントはモデル全体のパフォーマンスを改善する。
論文 参考訳(メタデータ) (2025-02-25T01:52:37Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - ToolCoder: A Systematic Code-Empowered Tool Learning Framework for Large Language Models [81.12673534903979]
ツール学習は、大規模な言語モデル(LLM)にとって、外部ツールとのインタラクションを通じて、複雑な現実世界のタスクを解決する重要な機能として登場した。
本稿では,ツール学習をコード生成タスクとして再編成する新しいフレームワークであるToolCoderを提案する。
論文 参考訳(メタデータ) (2025-02-17T03:42:28Z) - Conveyor: Efficient Tool-aware LLM Serving with Tool Partial Execution [6.579725434224422]
ツール開発者がLLMサービスシステムに部分的な実行機会を公開するための新しいインタフェースを導入する。
ツールの部分的な実行は、要求完了のレイテンシを最大38.8%改善することを示した。
論文 参考訳(メタデータ) (2024-05-29T21:24:15Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - SwiftSage: A Generative Agent with Fast and Slow Thinking for Complex
Interactive Tasks [81.9962823875981]
我々は、人間の認知の二重プロセス理論に触発された新しいエージェントフレームワークSwiftSageを紹介する。
フレームワークは、高速で直感的な思考を表すSwiftモジュールと、意図的な思考プロセスをエミュレートするSageモジュールの2つの主要なモジュールで構成されている。
ScienceWorldベンチマークの30タスクでは、SwiftSageはSayCan、ReAct、Reflexといった他のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-05-27T07:04:15Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。