論文の概要: RealAnt: An Open-Source Low-Cost Quadruped for Education and Research in
Real-World Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2011.03085v2
- Date: Sat, 4 Jun 2022 07:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:33:32.772688
- Title: RealAnt: An Open-Source Low-Cost Quadruped for Education and Research in
Real-World Reinforcement Learning
- Title(参考訳): RealAnt: 実世界の強化学習における教育と研究のためのオープンソース低コスト四角形
- Authors: Rinu Boney, Jussi Sainio, Mikko Kaivola, Arno Solin, Juho Kannala
- Abstract要約: RealAntは、強化学習で使われる人気のあるAnt'ベンチマークの低コストな物理バージョンである。
RealAntは10分未満の経験から、ゼロから歩くことを学べる。
- 参考スコア(独自算出の注目度): 22.248426100376467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current robot platforms available for research are either very expensive or
unable to handle the abuse of exploratory controls in reinforcement learning.
We develop RealAnt, a minimal low-cost physical version of the popular `Ant'
benchmark used in reinforcement learning. RealAnt costs only $\sim$350 EUR
(\$410) in materials and can be assembled in less than an hour. We validate the
platform with reinforcement learning experiments and provide baseline results
on a set of benchmark tasks. We demonstrate that the RealAnt robot can learn to
walk from scratch from less than 10 minutes of experience. We also provide
simulator versions of the robot (with the same dimensions, state-action spaces,
and delayed noisy observations) in the MuJoCo and PyBullet simulators. We
open-source hardware designs, supporting software, and baseline results for
educational use and reproducible research.
- Abstract(参考訳): 現在の研究対象のロボットプラットフォームは非常に高価か、強化学習における探索的制御の濫用を処理できない。
私たちは、強化学習で使われる'ant'ベンチマークの最小限の低コストな物理バージョンであるrealantを開発しました。
realantの費用はわずか$sim$350 eur ($410)で、1時間以内に組み立てることができる。
我々は、強化学習実験でプラットフォームを検証し、一連のベンチマークタスクのベースライン結果を提供する。
われわれはRealAntロボットが10分未満の経験からスクラッチから歩くことを学習できることを実証した。
また,MuJoCoシミュレータとPyBulletシミュレータにおいて,ロボットのシミュレータバージョン(同一次元,状態動作空間,遅延雑音観測)も提供する。
我々は,教育用および再現可能な研究のためのハードウェア設計,サポートソフトウェア,ベースライン結果のオープンソース化を行った。
関連論文リスト
- IRASim: Learning Interactive Real-Robot Action Simulators [24.591694756757278]
本稿では,ロボットアームが与えられた動作軌跡を実行する様子をリアルに映像化するための新しい手法IRASimを提案する。
提案手法の有効性を検証するため,3つの実ロボットデータセットに基づいて,新しいベンチマーク IRASim Benchmark を作成する。
その結果, IRASimはすべての基準法より優れており, 人的評価に好適であることが示唆された。
論文 参考訳(メタデータ) (2024-06-20T17:50:16Z) - BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation [63.42591251500825]
本稿では,人間中心ロボットの総合シミュレーションベンチマークであるBEHAVIOR-1Kを提案する。
ひとつは、90以上のオブジェクトにリッチな物理的およびセマンティックな特性を付加した50のシーンで、1,000の日常的な活動を定義することである。
第二にOMNIGIBSONは、現実的な物理シミュレーションと剛体、変形可能な体、液体のレンダリングを通じてこれらの活動を支援する新しいシミュレーション環境である。
論文 参考訳(メタデータ) (2024-03-14T09:48:36Z) - Tiny Reinforcement Learning for Quadruped Locomotion using Decision
Transformers [0.9217021281095907]
リソース制約のあるロボットプラットフォームは、低コストのハードウェア代替品を必要とするタスクに役立ちます。
本稿では,資源制約のあるロボットプラットフォーム上での模倣学習を実現する手法を提案する。
本手法は資源制約された四足歩行ロボットであるBittleの自然視運動を実現する。
論文 参考訳(メタデータ) (2024-02-20T18:10:39Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - FurnitureBench: Reproducible Real-World Benchmark for Long-Horizon
Complex Manipulation [16.690318684271894]
強化学習(RL)、模倣学習(IL)、タスク・アンド・モーション・プランニング(TAMP)は、様々なロボット操作タスクにおいて印象的なパフォーマンスを示している。
本稿では,ロボット操作の複雑で長期的タスクである実世界の家具組み立てに焦点をあてる。
再現可能な実世界の家具組み立てベンチマークであるFurnitureBenchを紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:29:00Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - rSoccer: A Framework for Studying Reinforcement Learning in Small and
Very Small Size Robot Soccer [0.0]
本稿では,強化学習実験に最適化されたIEEE Very Small Size SoccerとSmall Size Leagueのオープンソースシミュレータを紹介する。
また,単一エージェントおよびマルチエージェントロボットサッカースキルを評価するためのベンチマークタスクのセットを用いて,OpenAI Gym環境を作成するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T01:30:21Z) - TriFinger: An Open-Source Robot for Learning Dexterity [33.26612195196921]
人間の監督なしに安全に操作できるオープンソースのロボットプラットフォームを提案する。
ハードウェアは安価だが、非常にダイナミックで堅牢で、外部オブジェクトとの複雑な相互作用が可能である。
提案プラットフォームの可能性について,リアルタイム最適制御,スクラッチからの深層強化学習,投球,ライティングなど,数多くの実験を通じて説明する。
論文 参考訳(メタデータ) (2020-08-08T20:54:30Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。