論文の概要: Z-Space: A Multi-Agent Tool Orchestration Framework for Enterprise-Grade LLM Automation
- arxiv url: http://arxiv.org/abs/2511.19483v1
- Date: Sun, 23 Nov 2025 03:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.029351
- Title: Z-Space: A Multi-Agent Tool Orchestration Framework for Enterprise-Grade LLM Automation
- Title(参考訳): Z-Space: エンタープライズグレードLLM自動化のためのマルチエージェントツールオーケストレーションフレームワーク
- Authors: Qingsong He, Jing Nan, Jiayu Jiao, Liangjie Tang, Xiaodong Xu, Mengmeng Sun, Qingyao Wang, Minghui Yan,
- Abstract要約: 本稿では,データ生成指向型マルチエージェント協調ツール実行フレームワークZ-Spaceを提案する。
このフレームワークはElemeプラットフォームの技術部門にデプロイされており、大規模なテストデータ生成シナリオを提供している。
生産データは、ツール推論における平均トークン消費を96.26%削減していることを示している。
- 参考スコア(独自算出の注目度): 3.518072776386001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models can break through knowledge and timeliness limitations by invoking external tools within the Model Context Protocol framework to achieve automated execution of complex tasks. However, with the rapid growth of enterprise-scale MCP services, efficiently and accurately matching target functionalities among thousands of heterogeneous tools has become a core challenge restricting system practicality. Existing approaches generally rely on full-prompt injection or static semantic retrieval, facing issues including semantic disconnection between user queries and tool descriptions, context inflation in LLM input, and high inference latency. To address these challenges, this paper proposes Z-Space, a data-generation-oriented multi-agent collaborative tool invocation framework Z-Space. The Z-Space framework establishes a multi-agent collaborative architecture and tool filtering algorithm: (1) A structured semantic understanding of user queries is achieved through an intent parsing model; (2) A tool filtering module (FSWW) based on fused subspace weighted algorithm realizes fine-grained semantic alignment between intents and tools without parameter tuning; (3) An inference execution agent is constructed to support dynamic planning and fault-tolerant execution for multi-step tasks. This framework has been deployed in the Eleme platform's technical division, serving large-scale test data generation scenarios across multiple business units including Taotian, Gaode, and Hema. Production data demonstrates that the system reduces average token consumption in tool inference by 96.26\% while achieving a 92\% tool invocation accuracy rate, significantly enhancing the efficiency and reliability of intelligent test data generation systems.
- Abstract(参考訳): 大規模言語モデルは、複雑なタスクの自動実行を実現するために、Model Context Protocolフレームワーク内の外部ツールを呼び出すことで、知識とタイムラインの制限を突破することができる。
しかし,エンタープライズ規模のMPPサービスの急速な成長に伴い,多種多種多様なツールの目的機能を効率よく正確に一致させることが,システムの実用性を制限する中核的な課題となっている。
既存のアプローチは一般的にフルプロンプトインジェクションや静的セマンティック検索に依存しており、ユーザクエリとツール記述のセマンティックな切り離し、LLM入力のコンテキストインフレーション、高い推論遅延といった問題に直面している。
これらの課題に対処するため,データ生成指向型マルチエージェント協調ツールフレームワークZ-Spaceを提案する。
The Z-Space framework establishs a multi-agent collaborative architecture and tool filtering algorithm: (1) A structured semantic understanding of user query is achieved through a intent parsing model; (2) a tool filtering module (FSWW) based on fused subspace weighted algorithm; realize a fine-fine semanticaligned between intents and tools without parameter tuning; (3) inference execution agent is constructed to support dynamic planning and fault-tolerant execution for multi-step task。
このフレームワークはElemeプラットフォームの技術部門にデプロイされ、Taotian、Gaode、Hemaを含む複数のビジネスユニットにわたる大規模なテストデータ生成シナリオを提供する。
生産データから、ツール推論における平均トークン消費量を96.26 %削減し、92 % のツール起動精度を実現し、インテリジェントなテストデータ生成システムの効率と信頼性を大幅に向上させることを示した。
関連論文リスト
- AutoTool: Efficient Tool Selection for Large Language Model Agents [10.061664247482488]
LLMの推論と意思決定能力を活用することで、複雑なタスクを自動化する強力なツールとして、LLM(Large Language Model)エージェントが登場した。
しかしながら、大きなボトルネックは、ツール選択の推論コストの高さにある。特に、各ステップで使用するツールを決定するために、繰り返しLLMを呼び出すReActのようなアプローチでは。
ツール使用慣性(Tool use inertia)という重要な経験的観測を生かして、繰り返しLLM推論をバイパスするグラフベースの新しいフレームワークであるAutoToolを提案する。
論文 参考訳(メタデータ) (2025-11-18T16:41:48Z) - ScaleCall -- Agentic Tool Calling at Scale for Fintech: Challenges, Methods, and Deployment Insights [0.18643247155980827]
大きな言語モデル(LLM)は、ツール呼び出しにおいて優れ、ツールセットのような規制されたエンタープライズ環境にこれらの機能をデプロイする。
本稿では,Mastercard内のツールコールフレームワークであるScaleCallの開発と展開を通じて,企業環境におけるツール検索手法の総合的研究を行う。
論文 参考訳(メタデータ) (2025-10-29T14:35:46Z) - FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - ToolLibGen: Scalable Automatic Tool Creation and Aggregation for LLM Reasoning [80.10274552177096]
外部ツールを備えたLarge Language Models (LLM) は、複雑な推論タスクにおけるパフォーマンスの向上を実証している。
このツールに強化された推論が広く採用されるのは、ドメイン固有のツールが不足しているためである。
構造化ツールライブラリに非構造化ツールのコレクションを自動的に組み込むための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-10-09T04:11:16Z) - Multi-Agent Tool-Integrated Policy Optimization [67.12841355267678]
大規模言語モデル(LLM)は、知識集約的かつ複雑な推論タスクに対して、多ターンツール統合計画にますます依存している。
既存の実装は通常、単一のエージェントに依存するが、コンテキスト長とノイズの多いツールレスポンスに悩まされる。
ツール統合マルチエージェントフレームワークの効果的な強化学習をサポートする方法はない。
論文 参考訳(メタデータ) (2025-10-06T10:44:04Z) - Automated Creation and Enrichment Framework for Improved Invocation of Enterprise APIs as Tools [10.440520289311332]
ACEは、大規模言語モデルのための自動ツール作成および拡張フレームワークである。
パラメータ記述や例を含む豊富なツール仕様を生成して、選択と呼び出し精度を改善する。
当社のフレームワークを,プロプライエタリAPIとオープンソースAPIの両方で検証し,エージェントフレームワークとの統合を実証する。
論文 参考訳(メタデータ) (2025-09-15T06:41:54Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。