論文の概要: Unity RL Playground: A Versatile Reinforcement Learning Framework for Mobile Robots
- arxiv url: http://arxiv.org/abs/2503.05146v1
- Date: Fri, 07 Mar 2025 05:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:20:26.783431
- Title: Unity RL Playground: A Versatile Reinforcement Learning Framework for Mobile Robots
- Title(参考訳): Unity RL Playground: 移動ロボットのためのVersatile Reinforcement Learning Framework
- Authors: Linqi Ye, Rankun Li, Xiaowen Hu, Jiayi Li, Boyang Xing, Yan Peng, Bin Liang,
- Abstract要約: 本稿では,Unity ML-Agents上に構築されたオープンソースの強化学習フレームワークであるUnity RL Playgroundを紹介する。
Unity RL Playgroundは、移動ロボットを訓練してさまざまな移動タスクを実行するプロセスを自動化する。
主な機能としては、輸入ロボットモデルのワンクリックトレーニング、多様なロボット構成との普遍的な互換性、マルチモードモーション学習機能などがある。
- 参考スコア(独自算出の注目度): 9.924002744810506
- License:
- Abstract: This paper introduces Unity RL Playground, an open-source reinforcement learning framework built on top of Unity ML-Agents. Unity RL Playground automates the process of training mobile robots to perform various locomotion tasks such as walking, running, and jumping in simulation, with the potential for seamless transfer to real hardware. Key features include one-click training for imported robot models, universal compatibility with diverse robot configurations, multi-mode motion learning capabilities, and extreme performance testing to aid in robot design optimization and morphological evolution. The attached video can be found at https://linqi-ye.github.io/video/iros25.mp4 and the code is coming soon.
- Abstract(参考訳): 本稿では,Unity ML-Agents上に構築されたオープンソースの強化学習フレームワークであるUnity RL Playgroundを紹介する。
Unity RL Playgroundは、移動ロボットのトレーニングプロセスを自動化することで、歩行、ランニング、シミュレーションでのジャンプといったさまざまな移動タスクを実行し、実際のハードウェアにシームレスに移行する可能性を秘めている。
主な機能としては、輸入ロボットモデルのワンクリックトレーニング、多様なロボット構成との普遍的な互換性、マルチモードモーション学習機能、ロボット設計の最適化と形態的進化を支援する極端なパフォーマンステストなどがある。
添付されたビデオはhttps://linqi-ye.github.io/video/iros25.mp4で見ることができる。
関連論文リスト
- One Policy to Run Them All: an End-to-end Learning Approach to Multi-Embodiment Locomotion [18.556470359899855]
統一ロボット形態学アーキテクチャであるURMAを紹介する。
我々のフレームワークは、脚のあるロボットの領域にエンドツーエンドのマルチタスク強化学習アプローチをもたらす。
URMAはロボットプラットフォームに容易に移動可能な複数の実施形態の移動ポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2024-09-10T09:44:15Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - Generalized Animal Imitator: Agile Locomotion with Versatile Motion Prior [14.114972332185044]
本稿では,様々なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作や手作業による動作を模倣することにより,多様なアジャイルの低レベルスキルを学習することを可能にする。
シミュレーション環境と実環境の両方にまたがるVIMフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-02T17:59:24Z) - RoboCat: A Self-Improving Generalist Agent for Robotic Manipulation [33.10577695383743]
ロボット操作のためのマルチタスク汎用エージェントRoboCatを提案する。
このデータは、シミュレートされた本物のロボットアームから、さまざまな観察とアクションのセットでモーターコントロールスキルの大規模なレパートリーにまたがる。
RoboCatでは、ゼロショットだけでなく、100-1000例のみを用いて適応することで、新しいタスクやロボットに一般化する能力を実証する。
論文 参考訳(メタデータ) (2023-06-20T17:35:20Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。