論文の概要: BricksRL: A Platform for Democratizing Robotics and Reinforcement Learning Research and Education with LEGO
- arxiv url: http://arxiv.org/abs/2406.17490v2
- Date: Mon, 02 Dec 2024 09:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:54:40.611079
- Title: BricksRL: A Platform for Democratizing Robotics and Reinforcement Learning Research and Education with LEGO
- Title(参考訳): BricksRL:LEGOによるロボティクスと強化学習の研究と教育を民主化するプラットフォーム
- Authors: Sebastian Dittert, Vincent Moens, Gianni De Fabritiis,
- Abstract要約: 我々は、強化学習研究と教育のためのロボットへのアクセスを民主化するためのプラットフォームであるBricksRLを紹介する。
BricksRLは、強化学習エージェントのためのTorchRLライブラリと対話することで、現実世界でのカスタムLEGOロボットの作成、設計、訓練を容易にする。
- 参考スコア(独自算出の注目度): 5.052293146674793
- License:
- Abstract: We present BricksRL, a platform designed to democratize access to robotics for reinforcement learning research and education. BricksRL facilitates the creation, design, and training of custom LEGO robots in the real world by interfacing them with the TorchRL library for reinforcement learning agents. The integration of TorchRL with the LEGO hubs, via Bluetooth bidirectional communication, enables state-of-the-art reinforcement learning training on GPUs for a wide variety of LEGO builds. This offers a flexible and cost-efficient approach for scaling and also provides a robust infrastructure for robot-environment-algorithm communication. We present various experiments across tasks and robot configurations, providing built plans and training results. Furthermore, we demonstrate that inexpensive LEGO robots can be trained end-to-end in the real world to achieve simple tasks, with training times typically under 120 minutes on a normal laptop. Moreover, we show how users can extend the capabilities, exemplified by the successful integration of non-LEGO sensors. By enhancing accessibility to both robotics and reinforcement learning, BricksRL establishes a strong foundation for democratized robotic learning in research and educational settings.
- Abstract(参考訳): 我々は、強化学習研究と教育のためのロボットへのアクセスを民主化するためのプラットフォームであるBricksRLを紹介する。
BricksRLは、強化学習エージェントのためのTorchRLライブラリと対話することで、現実世界でのカスタムLEGOロボットの作成、設計、訓練を容易にする。
TorchRLとLEGOハブの統合は、Bluetooth双方向通信を通じて、さまざまなLEGOビルド用のGPUに関する最先端の強化学習トレーニングを可能にする。
これにより、スケーリングのための柔軟でコスト効率のよいアプローチが提供され、ロボット環境とアルゴリズムのコミュニケーションのための堅牢なインフラストラクチャも提供されます。
タスクやロボット構成のさまざまな実験を行い、構築された計画とトレーニング結果を提供する。
さらに、安価なLEGOロボットは、通常のラップトップで通常120分以下で、簡単なタスクをこなすために、現実世界でエンドツーエンドにトレーニングすることができることを実証した。
さらに,非LEGOセンサをうまく統合することで,ユーザが機能を拡張する方法を示す。
ロボット工学と強化学習の両方へのアクセシビリティを高めることで、BricksRLは研究および教育環境におけるロボット学習の民主化のための強力な基盤を確立している。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Solving Multi-Goal Robotic Tasks with Decision Transformer [0.0]
ロボット工学におけるオフラインマルチゴール強化学習のための決定変換器アーキテクチャの新しい適応法を提案する。
われわれのアプローチでは、ゴール固有の情報を意思決定変換器に統合し、オフライン環境で複雑なタスクを処理できる。
論文 参考訳(メタデータ) (2024-10-08T20:35:30Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - GRID: A Platform for General Robot Intelligence Development [22.031523876249484]
汎用ロボットインテリジェンス開発(GRID)のための新しいプラットフォームを提案する。
このプラットフォームにより、ロボットは物理的な能力、環境制約、目標にスキルを学習し、構成し、適応することができる。
GRIDは、新しいタイプのロボット、車両、ハードウェアプラットフォーム、ソフトウェアプロトコルに対応するように設計されている。
論文 参考訳(メタデータ) (2023-10-02T04:09:27Z) - A Lightweight and Transferable Design for Robust LEGO Manipulation [10.982854061044339]
本稿では,安全かつ効率的なロボットレゴ操作について検討する。
エンド・オブ・アーム(End-of-arm)ツール(EOAT)が設計されており、問題の大きさを減らし、大きな産業用ロボットが小さなレゴブロックを操作することができる。
実験により、EOATはレゴブロックを確実に操作でき、学習フレームワークは操作性能を100%の成功率で効果的かつ安全に改善できることが示された。
論文 参考訳(メタデータ) (2023-09-05T16:11:37Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。