論文の概要: TOUCAN: Synthesizing 1.5M Tool-Agentic Data from Real-World MCP Environments
- arxiv url: http://arxiv.org/abs/2510.01179v1
- Date: Wed, 01 Oct 2025 17:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.718714
- Title: TOUCAN: Synthesizing 1.5M Tool-Agentic Data from Real-World MCP Environments
- Title(参考訳): TOUCAN: 実世界のMPP環境から1.5Mツールエージェントデータを合成する
- Authors: Zhangchen Xu, Adriana Meza Soria, Shawn Tan, Anurag Roy, Ashish Sunil Agrawal, Radha Poovendran, Rameswar Panda,
- Abstract要約: Toucanは、これまでで最大規模のツール・アジェンティックデータセットである。
多様な、現実的で、挑戦的なタスクを、実際のツールの実行を含む軌道で生成します。
- 参考スコア(独自算出の注目度): 30.078263383249862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents are rapidly emerging as powerful systems for automating tasks across domains. Yet progress in the open-source community is constrained by the lack of high quality permissively licensed tool-agentic training data. Existing datasets are often limited in diversity, realism, and complexity, particularly regarding multi-tool and multi-turn interactions. To address this gap, we introduce Toucan, the largest publicly available tool-agentic dataset to date, containing 1.5 million trajectories synthesized from nearly 500 real-world Model Context Protocols (MCPs). Unlike prior work, Toucan leverages authentic MCP environments to generate diverse, realistic, and challenging tasks with trajectories involving real tool execution. Our pipeline first produces a broad spectrum of tool-use queries using five distinct models, applies model-based quality filtering, and then generates agentic trajectories with three teacher models using two agentic frameworks. Rigorous rule-based and model-based validation ensures high-quality outputs. We also introduce three extension mechanisms to further diversify tasks and simulate multi-turn conversations. Models fine-tuned on Toucan outperform larger closed-source counterparts on the BFCL V3 benchmark and push the Pareto frontier forward on MCP-Universe Bench.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、ドメイン間でタスクを自動化する強力なシステムとして急速に出現している。
しかし、オープンソースコミュニティの進歩は、高品質で許容的にライセンスされたツール・アジェンティックなトレーニングデータが欠如していることに制約されている。
既存のデータセットは、多様性、リアリズム、複雑さ、特にマルチツールとマルチターンの相互作用に制限されることが多い。
このギャップに対処するために、およそ500の現実世界のModel Context Protocol(MCP)から合成された150万のトラジェクトリを含む、これまでで最大の公開ツール・アジェンティックデータセットであるToucanを紹介します。
以前の作業とは異なり、Toucanは真のMPP環境を活用して、実際のツール実行に関わる軌跡を持つ多種多様で現実的で困難なタスクを生成する。
まず,5つの異なるモデルを用いて多種多様なツール用クエリを生成し,モデルに基づく品質フィルタリングを適用し,次いで2つのエージェントフレームワークを用いて3つの教師モデルを用いたエージェントトラジェクトリを生成する。
厳密なルールベースとモデルベースの検証は、高品質な出力を保証する。
また,タスクをさらに多様化し,マルチターン会話をシミュレートする3つの拡張メカニズムを導入する。
トゥーカンで微調整されたモデルは、BFCL V3ベンチマークでより大きなクローズソースを上回り、パレートフロンティアをMPP-Universe Benchで前進させる。
関連論文リスト
- APIGen-MT: Agentic Pipeline for Multi-Turn Data Generation via Simulated Agent-Human Interplay [86.01901238059261]
APIGen-MTは検証可能で多様なマルチターンエージェントデータを生成するフレームワークである。
xLAM-2-fc-r 級数で 1B から 70B のパラメータを持つモデル群を訓練する。
我々のモデルは、$tau$-benchとBFCLベンチマークでGPT-4oやClaude 3.5のようなフロンティアモデルより優れている。
論文 参考訳(メタデータ) (2025-04-04T17:13:57Z) - OmniNova:A General Multimodal Agent Framework [0.5439020425819]
特殊なツールを備えた大規模言語モデル(LLM)は、インテリジェントな自動化システムに新たな機会をもたらす。
OmniNovaはモジュール型のマルチエージェント自動化フレームワークで、言語モデルとWeb検索、クローリング、コード実行機能といった特殊なツールを組み合わせる。
論文 参考訳(メタデータ) (2025-03-25T19:21:01Z) - mmE5: Improving Multimodal Multilingual Embeddings via High-quality Synthetic Data [71.352883755806]
マルチモーダル埋め込みモデルは、テキストや画像などの様々なモダリティからデータを統一表現空間にマッピングする能力において、大きな注目を集めている。
しかし、ラベル付きマルチモーダルデータは、しばしば埋め込み性能を妨げる。
近年のアプローチでは、この問題に対処するためにデータ合成を活用しているが、合成データの質は依然として重大なボトルネックとなっている。
論文 参考訳(メタデータ) (2025-02-12T15:03:33Z) - Multi-modal Agent Tuning: Building a VLM-Driven Agent for Efficient Tool Usage [75.76940471949366]
本稿では,マルチモーダルツール使用データを自動的に生成するマルチモーダルエージェントチューニング手法を提案する。
データ品質を維持するため、GPT-4oミニモデルにクエリ、ファイル、トラジェクトリを生成するよう促す。
T3-Agentは2つの人気のあるVLMの改良を一貫して達成している。
論文 参考訳(メタデータ) (2024-12-20T07:00:46Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。