論文の概要: ActionStudio: A Lightweight Framework for Data and Training of Action Models
- arxiv url: http://arxiv.org/abs/2503.22673v1
- Date: Fri, 28 Mar 2025 17:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:32:31.925295
- Title: ActionStudio: A Lightweight Framework for Data and Training of Action Models
- Title(参考訳): ActionStudio: アクションモデルのデータとトレーニングのための軽量フレームワーク
- Authors: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong,
- Abstract要約: ActionStudioは、アクションモデルのための軽量で標準化されたデータおよびトレーニングフレームワークである。
LoRAやフル微調整,分散セットアップなど,さまざまなトレーニングパラダイムをサポートする。
公的な業界ベンチマークと現実的な業界ベンチマークの両方で有効性を検証する。
- 参考スコア(独自算出の注目度): 88.90834854360641
- License:
- Abstract: Action models are essential for enabling autonomous agents to perform complex tasks. However, training large action models remains challenging due to the diversity of agent environments and the complexity of agentic data. Despite growing interest, existing infrastructure provides limited support for scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight and extensible data and training framework designed for action models. ActionStudio unifies heterogeneous agent trajectories through a standardized format, supports diverse training paradigms including LoRA, full fine-tuning, and distributed setups, and integrates robust preprocessing and verification tools. We validate its effectiveness across both public and realistic industry benchmarks, demonstrating strong performance and practical scalability. We open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to facilitate research in the community.
- Abstract(参考訳): 自律エージェントが複雑なタスクを実行できるためには、アクションモデルが不可欠である。
しかし、エージェント環境の多様性とエージェントデータの複雑さのため、大規模なアクションモデルのトレーニングは依然として困難である。
関心の高まりにもかかわらず、既存のインフラストラクチャは、スケーラブルでエージェント固有の微調整を限定的にサポートする。
本稿では,アクションモデル用に設計された軽量で拡張可能なデータおよびトレーニングフレームワークであるActionStudioを紹介する。
ActionStudioは、標準化されたフォーマットを通じて異種エージェントのトラジェクトリを統一し、LoRA、フル微調整、分散セットアップを含む多様なトレーニングパラダイムをサポートし、堅牢な前処理と検証ツールを統合する。
公的な業界ベンチマークと現実的な業界ベンチマークの両方で有効性を検証し、強力なパフォーマンスと実用的なスケーラビリティを示します。
コミュニティの研究を促進するために、https://github.com/SalesforceAIResearch/xLAMでコードとデータをオープンソース化しました。
関連論文リスト
- Perspectives for Direct Interpretability in Multi-Agent Deep Reinforcement Learning [0.41783829807634765]
マルチエージェントディープ強化学習(MADRL)は、ロボット工学やゲームにおいて複雑な問題を解くのに効果的であることが証明された。
本稿では, 学習モデルから直接, ポストホックな説明を生成することによって, 直接解釈可能であることを提唱する。
我々は、関連バックプロパゲーション、知識エディション、モデルステアリング、アクティベーションパッチ、スパースオートエンコーダ、サーキットディスカバリなど、現代的な手法を探求する。
論文 参考訳(メタデータ) (2025-02-02T09:15:27Z) - Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - CoSense3D: an Agent-based Efficient Learning Framework for Collective Perception [0.552480439325792]
本稿では,よりクリーンなデータフロー構造を実現するために,ディープラーニングモジュールとエージェントデータを個別に扱うエージェントベースのトレーニングフレームワークを提案する。
このフレームワークは、データ処理パイプラインをプロトタイピングし、各エージェントの勾配計算を定義するAPIを提供するだけでなく、インタラクティブなトレーニング、テスト、データ視覚化のためのユーザインターフェースも提供する。
論文 参考訳(メタデータ) (2024-04-29T11:40:27Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - Variational Exploration Module VEM: A Cloud-Native Optimization and
Validation Tool for Geospatial Modeling and AI Workflows [0.0]
クラウドベースのデプロイメントは、これらのモデリングとAIのスケールアップに役立つ。
我々は,クラウドにデプロイされたモデリングの最適化と検証を容易にする変分探索モジュールを開発した。
モデルに依存しないモジュールの柔軟性と堅牢性は、実世界のアプリケーションを用いて実証される。
論文 参考訳(メタデータ) (2023-11-26T23:07:00Z) - ModelScope-Agent: Building Your Customizable Agent System with
Open-source Large Language Models [74.64651681052628]
本稿では,オープンソースのLCMをコントローラとする実世界のアプリケーションのためのカスタマイズ可能なエージェントフレームワークであるModelScope-Agentを紹介する。
ユーザフレンドリーなシステムライブラリを提供し、カスタマイズ可能なエンジン設計により、複数のオープンソースLLMでモデルトレーニングをサポートする。
ツール使用データ収集、ツール検索、ツール登録、メモリ制御、カスタマイズされたモデルトレーニング、評価にまたがる包括的なフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-09-02T16:50:30Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - SINGA-Easy: An Easy-to-Use Framework for MultiModal Analysis [18.084628500554462]
SINGA-Easyは、トレーニング段階での分散ハイパーパラメータチューニング、推論段階での動的計算コスト制御、モデル説明によるマルチメディアコンテンツとの直感的なユーザインタラクションを提供する新しいディープラーニングフレームワークである。
マルチモーダリティデータ解析アプリケーションのトレーニングと展開に関する実験により,このフレームワークは動的推論負荷に適応可能であることが示された。
論文 参考訳(メタデータ) (2021-08-03T08:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。