論文の概要: ActionStudio: A Lightweight Framework for Data and Training of Large Action Models
- arxiv url: http://arxiv.org/abs/2503.22673v3
- Date: Thu, 17 Jul 2025 01:19:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 18:02:28.721689
- Title: ActionStudio: A Lightweight Framework for Data and Training of Large Action Models
- Title(参考訳): ActionStudio: 大規模アクションモデルのデータとトレーニングのための軽量フレームワーク
- Authors: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong,
- Abstract要約: ActionStudioは、大規模アクションモデル用に設計された軽量でスケーラブルなデータおよびトレーニングフレームワークである。
トレーニングされたモデルでは、公開および現実的なエージェントベンチマークで最高のパフォーマンスが得られます。
我々はActionStudioフレームワークをオープンソース化し、98kの高品質なトラジェクトリをキュレートしたデータセットであるActionStudio-98kをリリースする。
- 参考スコア(独自算出の注目度): 88.90834854360641
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Action models are essential for enabling autonomous agents to perform complex tasks. However, training such models remains challenging due to the diversity of agent environments and the complexity of noisy agentic data. Existing infrastructure offers limited support for scalable, agent-specific fine-tuning and standardized agent data processing. We introduce ActionStudio, a lightweight and extensible data and training framework designed for large action models. ActionStudio unifies diverse agent trajectories using our proposed Unified Format 2.0, supports a range of training workflows with optimized multi-node distributed setup, and integrates robust preprocessing and real-time verification tools. ActionStudio demonstrates up to 9x higher throughput compared to existing agentic training frameworks, and our trained models yield top performances across public and realistic agent benchmarks. To support the broader research community, we open-source the ActionStudio framework and release actionstudio-98k, a curated dataset of 98k high-quality trajectories. Code: https://github.com/SalesforceAIResearch/xLAM.
- Abstract(参考訳): 自律エージェントが複雑なタスクを実行できるためには、大規模なアクションモデルが不可欠である。
しかし、エージェント環境の多様性とノイズの多いエージェントデータの複雑さのため、そのようなモデルのトレーニングは依然として困難である。
既存のインフラストラクチャは、スケーラブルでエージェント固有の微調整と標準化されたエージェントデータ処理を限定的にサポートする。
我々は,大規模アクションモデル用に設計された軽量で拡張可能なデータおよびトレーニングフレームワークであるActionStudioを紹介する。
ActionStudioは、提案したUnified Format 2.0を使って多様なエージェントのトラジェクトリを統一し、最適化されたマルチノード分散セットアップでさまざまなトレーニングワークフローをサポートし、堅牢な前処理とリアルタイム検証ツールを統合する。
ActionStudioは既存のエージェントトレーニングフレームワークと比較して最大9倍のスループットを示しています。
より広範な研究コミュニティをサポートするために、我々はActionStudioフレームワークと、98kの高品質なトラジェクトリのキュレートデータセットであるActionStudio-98kをオープンソースにしました。
コード:https://github.com/SalesforceAIResearch/xLAM。
関連論文リスト
- LAM SIMULATOR: Advancing Data Generation for Large Action Model Training via Online Exploration and Trajectory Feedback [121.78866929908871]
AIエージェントのための大規模アクションモデル(LAM)は、素晴らしいポテンシャルを提供するが、高品質なトレーニングデータを必要とするため、課題に直面している。
LAM SIMULATORは,高品質なフィードバックによるエージェントタスクのオンライン探索を目的とした総合的なフレームワークである。
本フレームワークは,動的タスククエリジェネレータ,広範囲なツールコレクション,および大規模言語モデル(LLM)エージェントがツールを呼び出し,リアルタイムフィードバックを受信できる対話型環境を備えている。
論文 参考訳(メタデータ) (2025-06-02T22:36:02Z) - Command A: An Enterprise-Ready Large Language Model [180.18356391290172]
コマンドAはエージェント最適化および多言語対応モデルである。
クラス内で最高のRetrieval Augmented Generation機能を提供する。
論文 参考訳(メタデータ) (2025-04-01T12:08:07Z) - Perspectives for Direct Interpretability in Multi-Agent Deep Reinforcement Learning [0.41783829807634765]
マルチエージェントディープ強化学習(MADRL)は、ロボット工学やゲームにおいて複雑な問題を解くのに効果的であることが証明された。
本稿では, 学習モデルから直接, ポストホックな説明を生成することによって, 直接解釈可能であることを提唱する。
我々は、関連バックプロパゲーション、知識エディション、モデルステアリング、アクティベーションパッチ、スパースオートエンコーダ、サーキットディスカバリなど、現代的な手法を探求する。
論文 参考訳(メタデータ) (2025-02-02T09:15:27Z) - TrajAgent: An LLM-based Agent Framework for Automated Trajectory Modeling via Collaboration of Large and Small Models [10.86175727790196]
軌道モデリングは、生活サービス、都市交通、行政などの分野で広く応用されている。
自動化モデリングによるロバストかつ効率的な軌道モデリングを支援するフレームワークである textitTrajAgent を提案する。
論文 参考訳(メタデータ) (2024-10-27T13:51:09Z) - Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - AgentSquare: Automatic LLM Agent Search in Modular Design Space [16.659969168343082]
大規模言語モデル(LLM)は、幅広い複雑なタスクを処理できるエージェントシステムの急速な成長をもたらした。
Modularized LLM Agent Search (MoLAS) という新しい研究課題を紹介した。
論文 参考訳(メタデータ) (2024-10-08T15:52:42Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - Very Large-Scale Multi-Agent Simulation in AgentScope [112.98986800070581]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
また、多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースも提供します。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - Plain-Det: A Plain Multi-Dataset Object Detector [22.848784430833835]
Plain-Detは、新しいデータセットに対応する柔軟性、さまざまなデータセットのパフォーマンス、トレーニング効率を提供する。
13の下流データセットに対して広範な実験を行い、Plain-Detは強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-14T05:18:06Z) - CoSense3D: an Agent-based Efficient Learning Framework for Collective Perception [0.552480439325792]
本稿では,よりクリーンなデータフロー構造を実現するために,ディープラーニングモジュールとエージェントデータを個別に扱うエージェントベースのトレーニングフレームワークを提案する。
このフレームワークは、データ処理パイプラインをプロトタイピングし、各エージェントの勾配計算を定義するAPIを提供するだけでなく、インタラクティブなトレーニング、テスト、データ視覚化のためのユーザインターフェースも提供する。
論文 参考訳(メタデータ) (2024-04-29T11:40:27Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - ModelScope-Agent: Building Your Customizable Agent System with
Open-source Large Language Models [74.64651681052628]
本稿では,オープンソースのLCMをコントローラとする実世界のアプリケーションのためのカスタマイズ可能なエージェントフレームワークであるModelScope-Agentを紹介する。
ユーザフレンドリーなシステムライブラリを提供し、カスタマイズ可能なエンジン設計により、複数のオープンソースLLMでモデルトレーニングをサポートする。
ツール使用データ収集、ツール検索、ツール登録、メモリ制御、カスタマイズされたモデルトレーニング、評価にまたがる包括的なフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-09-02T16:50:30Z) - High Performance Simulation for Scalable Multi-Agent Reinforcement
Learning [1.675857332621569]
高性能エージェントベースモデル(ABM)フレームワークであるVogueの使用を実演する。
Vogueはマルチエージェントのトレーニング環境として機能し、数千から数万の対話エージェントをサポートする。
これらの環境は、時間スケールの分と時間で共有RLポリシーを訓練できることを示す。
論文 参考訳(メタデータ) (2022-07-08T14:54:06Z) - SINGA-Easy: An Easy-to-Use Framework for MultiModal Analysis [18.084628500554462]
SINGA-Easyは、トレーニング段階での分散ハイパーパラメータチューニング、推論段階での動的計算コスト制御、モデル説明によるマルチメディアコンテンツとの直感的なユーザインタラクションを提供する新しいディープラーニングフレームワークである。
マルチモーダリティデータ解析アプリケーションのトレーニングと展開に関する実験により,このフレームワークは動的推論負荷に適応可能であることが示された。
論文 参考訳(メタデータ) (2021-08-03T08:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。