論文の概要: myGym: Modular Toolkit for Visuomotor Robotic Tasks
- arxiv url: http://arxiv.org/abs/2012.11643v1
- Date: Mon, 21 Dec 2020 19:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 09:02:59.101451
- Title: myGym: Modular Toolkit for Visuomotor Robotic Tasks
- Title(参考訳): myGym: Visuomotor Robotic Tasksのためのモジュールツールキット
- Authors: Michal Vavrecka, Nikita Sokovnin, Megi Mejdrechova, Gabriela Sejnova,
Marek Otahal
- Abstract要約: myGymは、3Dシミュレータで訓練された強化学習(RL)、本質的な動機付け、模倣学習タスク用に開発された新しい仮想ロボットツールキットです。
シミュレータのモジュラ構造により、ユーザはさまざまなロボット、環境、タスクを使って、多数のシナリオでアルゴリズムをトレーニングし、検証することができる。
このツールキットは、Visuomotorタスク用に事前トレーニングされたビジュアルモジュールを提供し、迅速なプロトタイピングを可能にし、さらに視覚的なサブモジュールをカスタマイズしたり、自身のオブジェクトで再トレーニングすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel virtual robotic toolkit myGym, developed for
reinforcement learning (RL), intrinsic motivation and imitation learning tasks
trained in a 3D simulator. The trained tasks can then be easily transferred to
real-world robotic scenarios. The modular structure of the simulator enables
users to train and validate their algorithms on a large number of scenarios
with various robots, environments and tasks. Compared to existing toolkits
(e.g. OpenAI Gym, Roboschool) which are suitable for classical RL, myGym is
also prepared for visuomotor (combining vision & movement) unsupervised tasks
that require intrinsic motivation, i.e. the robots are able to generate their
own goals. There are also collaborative scenarios intended for human-robot
interaction. The toolkit provides pretrained visual modules for visuomotor
tasks allowing rapid prototyping, and, moreover, users can customize the visual
submodules and retrain with their own set of objects. In practice, the user
selects the desired environment, robot, objects, task and type of reward as
simulation parameters, and the training, visualization and testing themselves
are handled automatically. The user can thus fully focus on development of the
neural network architecture while controlling the behaviour of the environment
using predefined parameters.
- Abstract(参考訳): 本研究では,強化学習(rl),本質的動機づけ,模倣学習タスクを3次元シミュレータで学習するための仮想ロボットツールキットmygymを提案する。
訓練されたタスクは、現実世界のロボットシナリオに簡単に転送できる。
シミュレータのモジュラ構造により、ユーザはさまざまなロボット、環境、タスクを使って、多数のシナリオでアルゴリズムをトレーニングし、検証することができる。
既存のツールキット(例えば)と比較すると
古典的なRLに適したOpenAI Gym(Roboschool)も、本質的なモチベーションを必要とするビズモトール(視覚と運動を組み合わせた)教師なしのタスク、すなわち、準備されている。
ロボットは自分自身の目標を 生み出すことができます
また、人間とロボットの相互作用を意図した協調シナリオもある。
このツールキットは、Visuomotorタスク用に事前トレーニングされたビジュアルモジュールを提供し、迅速なプロトタイピングを可能にし、さらに視覚的なサブモジュールをカスタマイズしたり、自身のオブジェクトで再トレーニングすることができる。
実際には、ユーザはシミュレーションパラメータとして所望の環境、ロボット、オブジェクト、タスク、報酬の種類を選択し、トレーニング、可視化、テスト自体を自動的に処理する。
これにより、ユーザは事前に定義されたパラメータを使用して環境の振る舞いを制御しながら、ニューラルネットワークアーキテクチャの開発に完全に集中することができる。
関連論文リスト
- LLARVA: Vision-Action Instruction Tuning Enhances Robot Learning [50.99807031490589]
LLARVAは,ロボット学習タスク,シナリオ,環境を統一するための,新しい指導指導法で訓練されたモデルである。
我々は,Open X-Embodimentデータセットから8.5Mの画像-視覚的トレースペアを生成し,モデルを事前学習する。
実験によって強い性能が得られ、LLARVAは現代のいくつかのベースラインと比較してよく機能することを示した。
論文 参考訳(メタデータ) (2024-06-17T17:55:29Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Gen2Sim: Scaling up Robot Learning in Simulation with Generative Models [17.757495961816783]
Gen2Simは、3Dアセット、タスク記述、タスク分解、報酬関数の自動生成によるシミュレーションにおけるロボットスキル学習のスケールアップ方法である。
私たちの研究は、シミュレーションにおける完全に自律的なロボット操作スキル獲得に向けて、何百ものシミュレーション資産、タスク、デモに貢献しています。
論文 参考訳(メタデータ) (2023-10-27T17:55:32Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - PACT: Perception-Action Causal Transformer for Autoregressive Robotics
Pre-Training [25.50131893785007]
本研究は,ロボットにおける複数のタスクの出発点として機能する汎用表現を事前学習するためのパラダイムを導入する。
本稿では,ロボットデータから直接表現を自己管理的に構築することを目的として,PACT(Perception-Action Causal Transformer)を提案する。
より大規模な事前学習モデル上に小さなタスク特化ネットワークを微調整すると、同時に1つのモデルをスクラッチからトレーニングするのに比べ、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-09-22T16:20:17Z) - Learning and Executing Re-usable Behaviour Trees from Natural Language
Instruction [1.4824891788575418]
ビヘイビアツリーは、堅牢でモジュラーな制御アーキテクチャを提供するために、自然言語命令と組み合わせて使用することができる。
提案手法を用いて生成した行動木を,新しいシナリオに一般化する方法を示す。
本研究は,既存の自然言語命令コーパスに対して検証する。
論文 参考訳(メタデータ) (2021-06-03T07:47:06Z) - TANGO: Commonsense Generalization in Predicting Tool Interactions for
Mobile Manipulators [15.61285199988595]
タスク固有のツール相互作用を予測するための新しいニューラルモデルであるTANGOを紹介します。
TANGOは、グラフニューラルネットワークを使用して、オブジェクトとそれらの間のシンボリックな関係からなる世界状態をエンコードする。
知識ベースから学習した組込みによる環境表現の強化により,新しい環境に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2021-05-05T18:11:57Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。