論文の概要: Real Robot Challenge 2022: Learning Dexterous Manipulation from Offline
Data in the Real World
- arxiv url: http://arxiv.org/abs/2308.07741v3
- Date: Fri, 24 Nov 2023 14:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 03:41:07.760083
- Title: Real Robot Challenge 2022: Learning Dexterous Manipulation from Offline
Data in the Real World
- Title(参考訳): real robot challenge 2022: 現実世界のオフラインデータからデクスター処理を学ぶ
- Authors: Nico G\"urtler, Felix Widmaier, Cansu Sancaktar, Sebastian Blaes,
Pavel Kolev, Stefan Bauer, Manuel W\"uthrich, Markus Wulfmeier, Martin
Riedmiller, Arthur Allshire, Qiang Wang, Robert McCarthy, Hangyeol Kim,
Jongchan Baek, Wookyong Kwon, Shanliang Qian, Yasunori Toshimitsu, Mike Yan
Michelis, Amirhossein Kazemipour, Arman Raayatsanati, Hehui Zheng, Barnabas
Gavin Cangan, Bernhard Sch\"olkopf, Georg Martius
- Abstract要約: リアルロボットチャレンジ2022は、強化学習とロボティクスのコミュニティの間の橋として機能した。
我々は参加者に、提供された実ロボットデータセットからプッシュ、グリップ、手動の向きを含む2つの巧妙な操作タスクを学ぶように頼んだ。
大規模なソフトウェアドキュメンテーションと、実際のセットアップのシミュレーションに基づく初期ステージにより、競争は特にアクセスしやすくなった。
- 参考スコア(独自算出の注目度): 38.54892412474853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Experimentation on real robots is demanding in terms of time and costs. For
this reason, a large part of the reinforcement learning (RL) community uses
simulators to develop and benchmark algorithms. However, insights gained in
simulation do not necessarily translate to real robots, in particular for tasks
involving complex interactions with the environment. The Real Robot Challenge
2022 therefore served as a bridge between the RL and robotics communities by
allowing participants to experiment remotely with a real robot - as easily as
in simulation.
In the last years, offline reinforcement learning has matured into a
promising paradigm for learning from pre-collected datasets, alleviating the
reliance on expensive online interactions. We therefore asked the participants
to learn two dexterous manipulation tasks involving pushing, grasping, and
in-hand orientation from provided real-robot datasets. An extensive software
documentation and an initial stage based on a simulation of the real set-up
made the competition particularly accessible. By giving each team plenty of
access budget to evaluate their offline-learned policies on a cluster of seven
identical real TriFinger platforms, we organized an exciting competition for
machine learners and roboticists alike.
In this work we state the rules of the competition, present the methods used
by the winning teams and compare their results with a benchmark of
state-of-the-art offline RL algorithms on the challenge datasets.
- Abstract(参考訳): 実際のロボットの実験には時間とコストが要求される。
このため、強化学習(RL)コミュニティの大部分はシミュレータを使ってアルゴリズムを開発し、ベンチマークしている。
しかしながら、シミュレーションで得られた洞察は、実際のロボット、特に環境との複雑な相互作用に関わるタスクに必ずしも変換されない。
それゆえ、実際のロボットチャレンジ2022は、参加者が実際のロボットを遠隔で実験することを可能にすることで、rlとロボットコミュニティの橋渡しとなった。
近年、オフラインの強化学習が成熟し、事前コンパイルされたデータセットから学習するための有望なパラダイムとなり、高価なオンラインインタラクションへの依存が軽減された。
そこで我々は参加者に対して,提供された実ロボットデータセットからプッシュ,握り,手動の向きを含む2つの巧妙な操作タスクを学ぶように求めた。
大規模なソフトウェアドキュメンテーションと、実際のセットアップのシミュレーションに基づく初期ステージは、競争を特にアクセスしやすくした。
それぞれのチームに、オフラインで学習したポリシーを7つのTriFingerプラットホームのクラスタで評価するための、十分なアクセス予算を与えることで、機械学習とロボティクスのエキサイティングな競争を組織した。
本研究では,競争のルールを述べ,勝敗チームが使用する手法を示し,課題データセット上の最先端のオフラインRLアルゴリズムのベンチマークと比較する。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - An Architecture for Unattended Containerized (Deep) Reinforcement
Learning with Webots [0.0]
3Dの世界におけるエージェントによる強化学習は、依然として課題に直面している。
シミュレーションソフトウェアの使用に必要な知識と、意図しないトレーニングパイプラインにおけるスタンドアロンのシミュレーションソフトウェアの利用。
論文 参考訳(メタデータ) (2024-02-06T12:08:01Z) - Autonomous Robotic Reinforcement Learning with Asynchronous Human
Feedback [27.223725464754853]
GEARは、ロボットを現実世界の環境に配置し、中断することなく自律的に訓練することを可能にする。
システムはリモート、クラウドソース、非専門家からの非同期フィードバックのみを必要とする、Webインターフェースにロボットエクスペリエンスをストリームする。
論文 参考訳(メタデータ) (2023-10-31T16:43:56Z) - Train Offline, Test Online: A Real Robot Learning Benchmark [113.19664479709587]
Train Offline, Test Online (TOTO)は、リモートユーザに対して、共通タスクのメソッドを評価するための共有ロボティックハードウェアへのアクセスを提供する。
本研究は、TOTOにおける5つの事前訓練された視覚表現と4つのオフラインポリシー学習ベースラインを比較し、遠隔で5つの機関に貢献した。
ハードウェアやデータ収集を必要とせずに、いくつかのメソッドと簡単に直接比較できる。
論文 参考訳(メタデータ) (2023-06-01T17:42:08Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Accelerating Interactive Human-like Manipulation Learning with GPU-based
Simulation and High-quality Demonstrations [25.393382192511716]
コンタクトリッチなタスクを対話的に操作するための没入型仮想現実遠隔操作インタフェースを提案する。
我々は,大規模並列RLと模倣学習の相補的強みを実証し,頑健で自然な振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-05T09:37:27Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。