論文の概要: FABRIC: Framework for Agent-Based Realistic Intelligence Creation
- arxiv url: http://arxiv.org/abs/2510.17995v1
- Date: Mon, 20 Oct 2025 18:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.443328
- Title: FABRIC: Framework for Agent-Based Realistic Intelligence Creation
- Title(参考訳): FABRIC:エージェントベースのリアルインテリジェンス作成のためのフレームワーク
- Authors: Abhigya Verma, Seganrasan Subramanian, Nandhakumar Kandasamy, Naman Gupta,
- Abstract要約: 大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.940391073007047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed as agents, expected to decompose goals, invoke tools, and verify results in dynamic environments. Realizing these capabilities requires access to agentic data- structured interaction records that couple user intents with tool specifications, argument-grounded calls, and verifiable execution traces. However, collecting such data from human annotators is costly, time-consuming, and difficult to scale. We present a unified framework for synthesizing agentic data using only LLMs, without any human-in-the-loop supervision. This framework decomposes generation into modular pipelines that produce complete interaction records spanning task specifications, tool definitions, policy pseudocode, natural language exchanges, and execution traces. Records conform to strict syntactic and semantic constraints, ensuring machine-parseability and faithful alignment across inputs, outputs, and tool calls. Beyond single tasks, there is support for both multi-task and multi-turn agent interactions, enabling the construction of datasets that reflect the full spectrum of tool-use competencies. To ensure quality and consistency, the framework integrates constrained generation formats, JSON-schema validation, and judge-based filtering. This paper formalizes the schema for agentic records, details the prompt design principles that guide generation, and introduces scalable pipelines for high-quality synthetic data. By providing a reproducible, LLM-only alternative to manual collection, hence advancing the development of agentic LLMs capable of robust tool use.
- Abstract(参考訳): 大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
これらの機能を実現するには、ツール仕様、引数付き呼び出し、検証可能な実行トレースとユーザ意図を結合するエージェント的なデータ構造化インタラクションレコードへのアクセスが必要である。
しかし、人間のアノテータからこのようなデータを収集するのはコストがかかり、時間もかかり、スケールが困難である。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
このフレームワークは、タスク仕様、ツール定義、ポリシーの擬似コード、自然言語交換、実行トレースにまたがる完全なインタラクションレコードを生成するモジュールパイプラインに生成を分解する。
レコードは厳密な構文的制約とセマンティック制約に従っており、入力、出力、ツールコール間の機械的パーサビリティと忠実なアライメントを保証する。
単一のタスク以外にも、マルチタスクとマルチターンエージェントの両方のインタラクションをサポートしており、ツール使用能力の全スペクトルを反映したデータセットの構築を可能にしている。
品質と一貫性を確保するため、フレームワークは制約付き生成フォーマット、JSONスキーマバリデーション、およびジャッジベースのフィルタリングを統合している。
本稿ではエージェントレコードのスキーマを定式化し、生成をガイドする設計原理を詳述し、高品質な合成データのためのスケーラブルなパイプラインを導入する。
手作業によるコレクションの代替として、再現可能なLLMのみを提供することにより、堅牢なツール使用が可能なエージェント型LLMの開発が進められた。
関連論文リスト
- GOAT: A Training Framework for Goal-Oriented Agent with Tools [16.5275883251462]
大規模言語モデル(LLM)は、インタラクティブエージェントとして機能するために、最近、従来のテキスト生成を超えて拡張されている。
本研究では,人間のアノテーションを含まない環境下でのLDMエージェントの微調整を可能にする新しいトレーニングフレームワークGOATを提案する。
広範な実験により,GOAT学習エージェントは,複数の既存の目標指向ベンチマークにおいて最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-10-14T07:14:50Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - Transduction is All You Need for Structured Data Workflows [8.178153196011028]
本稿では,構造化データワークフローパイプライン構築のためのエージェント型AIフレームワークであるAgenticsを紹介する。
研究と実践の両方のために設計されたAgenticsは、エージェントがデータタイプに埋め込まれる新しいデータ中心のパラダイムを提供する。
本稿では,本手法の有効性を実証した,構造化データワークフロータスクと実証的エビデンスについて述べる。
論文 参考訳(メタデータ) (2025-08-21T14:35:47Z) - SyGra: A Unified Graph-Based Framework for Scalable Generation, Quality Tagging, and Management of Synthetic Data [0.0]
大規模言語モデル(LLM)のための総合的な合成データ生成フレームワークを提案する。
本手法では,手作業による介入を最小限に抑えた複雑な対話フローをモデル化可能なモジュール型および構成型パイプラインを用いる。
得られたデータセットは、SFTとDPOの両方のユースケースをサポートするフレキシブルなスキーマの下で構成され、多様なトレーニングへのシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-08-21T10:35:41Z) - ToolACE-MT: Non-Autoregressive Generation for Agentic Multi-Turn Interaction [84.90394416593624]
大規模言語モデル(LLM)によるエージェント的タスク解決には,多ターン・マルチステップインタラクションが必要である。
既存のシミュレーションベースのデータ生成手法は、複数のエージェント間のコストのかかる自己回帰的相互作用に大きく依存している。
本稿では,高品質なマルチターンエージェント対話を構築するための非自己回帰反復生成フレームワークであるToolACE-MTを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:38:23Z) - RouteNator: A Router-Based Multi-Modal Architecture for Generating Synthetic Training Data for Function Calling LLMs [3.41612427812159]
デジタルコンテンツ作成ツールでは、ユーザは、API呼び出しにマップしなければならない自然言語クエリを通じて、ニーズを表現します。
既存の合成データ生成アプローチでは、実世界のデータ分散を複製することができない。
高品質な合成学習データを生成するルータベースのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-05-15T16:53:45Z) - Large Language Models as Realistic Microservice Trace Generators [48.730974361862366]
本稿では,大規模言語モデル (LLM) を用いて, 合成作業負荷トレースを生成する手法を提案する。
我々はTraceLLMが様々な条件下で多様なリアルなトレースを生成し、精度と妥当性の両方において既存のアプローチよりも優れていることを示す。
TraceLLMは、キートレース機能を予測したり、欠落したデータを埋め込むといった、下流のトレース関連タスクに適応する。
論文 参考訳(メタデータ) (2024-12-16T12:48:04Z) - ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。