論文の概要: JaxRobotarium: Training and Deploying Multi-Robot Policies in 10 Minutes
- arxiv url: http://arxiv.org/abs/2505.06771v1
- Date: Sat, 10 May 2025 22:38:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.033127
- Title: JaxRobotarium: Training and Deploying Multi-Robot Policies in 10 Minutes
- Title(参考訳): JaxRobotarium: マルチロボットポリシーのトレーニングとデプロイを10分で行う
- Authors: Shalin Anand Jain, Jiazhen Liu, Siva Kailas, Harish Ravichandar,
- Abstract要約: 私たちは、Robotarium用のJaxベースのエンドツーエンドシミュレーション、学習、デプロイメント、ベンチマークプラットフォームであるJaxRobotariumにコントリビュートしています。
JaxRobotariumは、現実的なロボットダイナミクスと安全制約を備えたマルチロボット強化学習(MRRL)ポリシーの迅速なトレーニングと展開を可能にする。
- 参考スコア(独自算出の注目度): 1.768052197741668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent reinforcement learning (MARL) has emerged as a promising solution for learning complex and scalable coordination behaviors in multi-robot systems. However, established MARL platforms (e.g., SMAC and MPE) lack robotics relevance and hardware deployment, leaving multi-robot learning researchers to develop bespoke environments and hardware testbeds dedicated to the development and evaluation of their individual contributions. The Multi-Agent RL Benchmark and Learning Environment for the Robotarium (MARBLER) is an exciting recent step in providing a standardized robotics-relevant platform for MARL, by bridging the Robotarium testbed with existing MARL software infrastructure. However, MARBLER lacks support for parallelization and GPU/TPU execution, making the platform prohibitively slow compared to modern MARL environments and hindering adoption. We contribute JaxRobotarium, a Jax-powered end-to-end simulation, learning, deployment, and benchmarking platform for the Robotarium. JaxRobotarium enables rapid training and deployment of multi-robot reinforcement learning (MRRL) policies with realistic robot dynamics and safety constraints, supporting both parallelization and hardware acceleration. Our generalizable learning interface provides an easy-to-use integration with SOTA MARL libraries (e.g., JaxMARL). In addition, JaxRobotarium includes eight standardized coordination scenarios, including four novel scenarios that bring established MARL benchmark tasks (e.g., RWARE and Level-Based Foraging) to a realistic robotics setting. We demonstrate that JaxRobotarium retains high simulation fidelity while achieving dramatic speedups over baseline (20x in training and 150x in simulation), and provides an open-access sim-to-real evaluation pipeline through the Robotarium testbed, accelerating and democratizing access to multi-robot learning research and evaluation.
- Abstract(参考訳): マルチエージェント強化学習(MARL)は,マルチロボットシステムにおける複雑でスケーラブルな協調動作を学習するための,有望なソリューションである。
しかし、確立されたMARLプラットフォーム(例えば、SMACとMPE)は、ロボティクスの関連性やハードウェアのデプロイメントに欠けており、マルチロボット学習の研究者は、個々のコントリビューションの開発と評価専用ハードウェアテストベッドを開発する必要がある。
Multi-Agent RL Benchmark and Learning Environment for the Robotarium (MARBLER)は、既存のMARLソフトウェアインフラストラクチャでテストされたRobotariumをブリッジすることで、MARLの標準化されたロボティクス関連プラットフォームを提供する、エキサイティングな最近のステップである。
しかし、MARBLERは並列化とGPU/TPU実行をサポートしていないため、現在のMARL環境と比べてプラットフォームが著しく遅くなり、採用を妨げている。
私たちは、Robotarium用のJaxベースのエンドツーエンドシミュレーション、学習、デプロイメント、ベンチマークプラットフォームであるJaxRobotariumにコントリビュートしています。
JaxRobotariumは、並列化とハードウェアアクセラレーションの両方をサポートする、現実的なロボットダイナミクスと安全性制約を備えたマルチロボット強化学習(MRRL)ポリシーの迅速なトレーニングと展開を可能にする。
我々の汎用学習インタフェースは、SOTA MARLライブラリ(例えば、JaxMARL)と簡単に利用できる統合を提供する。
さらに、JaxRobotariumには8つの標準化された調整シナリオが含まれており、MARLベンチマークタスク(例えばRWAREとLevel-Based Foraging)を現実的なロボティクス設定に導入する4つの新しいシナリオが含まれている。
我々は,JaxRobotariumが,ベースライン上での劇的な高速化(20倍,シミュレーションで150倍)を達成しつつ,高いシミュレーション忠実性を保ちながら,Robotariumテストベッドを通じてオープンアクセスシム・トゥ・リアル評価パイプラインを提供し,マルチロボット学習研究と評価へのアクセスを促進・民主化していることを示す。
関連論文リスト
- Sim-to-Real Transfer for Mobile Robots with Reinforcement Learning: from NVIDIA Isaac Sim to Gazebo and Real ROS 2 Robots [1.2773537446441052]
この記事では、イザックの地域計画と障害物回避への応用を実証することに焦点を当てる。
ロボット・オペレーティング・システム(ROS)のナビゲーション・スタックであるNav2でエンドツーエンドのポリシーをベンチマークする。
また、Isaacシミュレータで訓練されたポリシーを実世界のロボットにゼロショット転送可能であることを示すことで、sim-to-realトランスファープロセスをカバーしている。
論文 参考訳(メタデータ) (2025-01-06T10:26:16Z) - IRASim: Learning Interactive Real-Robot Action Simulators [24.591694756757278]
本稿では,ロボットアームが与えられた動作軌跡を実行する様子をリアルに映像化するための新しい手法IRASimを提案する。
提案手法の有効性を検証するため,3つの実ロボットデータセットに基づいて,新しいベンチマーク IRASim Benchmark を作成する。
その結果, IRASimはすべての基準法より優れており, 人的評価に好適であることが示唆された。
論文 参考訳(メタデータ) (2024-06-20T17:50:16Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - From Multi-agent to Multi-robot: A Scalable Training and Evaluation
Platform for Multi-robot Reinforcement Learning [12.74238738538799]
マルチエージェント強化学習(MARL)は、過去数十年間、学術や産業から広く注目を集めてきた。
これらの手法が実際のシナリオ、特にマルチロボットシステムでどのように機能するかは未だ分かっていない。
本稿では,マルチロボット強化学習(MRRL)のためのスケーラブルなエミュレーションプラットフォームSMARTを提案する。
論文 参考訳(メタデータ) (2022-06-20T06:36:45Z) - Distributed Reinforcement Learning for Robot Teams: A Review [10.92709534981466]
近年のセンサ,アクティベーション,計算の進歩により,マルチロボットシステムへの扉が開きつつある。
コミュニティはモデルフリーのマルチエージェント強化学習を活用して、マルチロボットシステムのための効率的でスケーラブルなコントローラを開発した。
最近の知見:分散MSSは、非定常性や部分観測可能性などの根本的な課題に直面している。
論文 参考訳(メタデータ) (2022-04-07T15:34:19Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。