論文の概要: ORBIT: A Unified Simulation Framework for Interactive Robot Learning
Environments
- arxiv url: http://arxiv.org/abs/2301.04195v1
- Date: Tue, 10 Jan 2023 20:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 17:39:16.217525
- Title: ORBIT: A Unified Simulation Framework for Interactive Robot Learning
Environments
- Title(参考訳): ORBIT:対話型ロボット学習環境のための統一シミュレーションフレームワーク
- Authors: Mayank Mittal, Calvin Yu, Qinxi Yu, Jingzhou Liu, Nikita Rudin, David
Hoeller, Jia Lin Yuan, Pooria Poorsarvi Tehrani, Ritvik Singh, Yunrong Guo,
Hammad Mazhar, Ajay Mandlekar, Buck Babich, Gavriel State, Marco Hutter,
Animesh Garg
- Abstract要約: ORBITはNVIDIA Isaac Simによるロボット学習のための統一的でモジュール化されたフレームワークである。
写真リアリスティックなシーンと、高速で正確な剛性で変形可能な身体シミュレーションを備えたロボット環境を作るためのモジュラーデザインを提供する。
要約すると、オープンソースのフレームワークは16のロボットプラットフォーム、4つのセンサーモジュール、10のモーションジェネレータ、20以上のベンチマークタスク、そして4つの学習ライブラリへのラッパーが簡単に提供される。
- 参考スコア(独自算出の注目度): 26.176260490485504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ORBIT, a unified and modular framework for robot learning powered
by NVIDIA Isaac Sim. It offers a modular design to easily and efficiently
create robotic environments with photo-realistic scenes and fast and accurate
rigid and deformable body simulation. With ORBIT, we provide a suite of
benchmark tasks of varying difficulty -- from single-stage cabinet opening and
cloth folding to multi-stage tasks such as room reorganization. To support
working with diverse observations and action spaces, we include fixed-arm and
mobile manipulators with different physically-based sensors and motion
generators. ORBIT allows training reinforcement learning policies and
collecting large demonstration datasets from hand-crafted or expert solutions
in a matter of minutes by leveraging GPU-based parallelization. In summary, we
offer an open-sourced framework that readily comes with 16 robotic platforms, 4
sensor modalities, 10 motion generators, more than 20 benchmark tasks, and
wrappers to 4 learning libraries. With this framework, we aim to support
various research areas, including representation learning, reinforcement
learning, imitation learning, and task and motion planning. We hope it helps
establish interdisciplinary collaborations in these communities, and its
modularity makes it easily extensible for more tasks and applications in the
future. For videos, documentation, and code: https://isaac-orbit.github.io/.
- Abstract(参考訳): ORBITはNVIDIA Isaac Simによるロボット学習のための統一的でモジュール化されたフレームワークである。
写真リアリスティックなシーンと高速で正確な剛性と変形可能な身体シミュレーションを備えたロボット環境を、簡単かつ効率的に作成するためのモジュラーデザインを提供する。
ORBITでは、単一ステージのキャビネットのオープニングや布の折り畳みから、部屋の再編成などのマルチステージタスクに至るまで、さまざまな困難を伴うベンチマークタスクのスイートを提供しています。
多様な観察と行動空間での作業をサポートするため、異なる物理的センサーとモーションジェネレータを備えた固定アームと移動マニピュレータを含む。
ORBITは、GPUベースの並列化を活用することで、強化学習ポリシのトレーニングと、手作りあるいはエキスパートソリューションから大規模なデモデータセットを数分で収集することを可能にする。
要約すると、オープンソースのフレームワークは16のロボットプラットフォーム、4つのセンサーモジュール、10のモーションジェネレータ、20以上のベンチマークタスク、そして4つの学習ライブラリへのラッパーが簡単に提供される。
このフレームワークでは,表現学習,強化学習,模倣学習,タスク・モーション計画など,さまざまな研究分野をサポートすることを目指している。
これらのコミュニティで学際的なコラボレーションを確立するのに役立ち、モジュラリティによって将来的により多くのタスクやアプリケーションを簡単に拡張できることを願っています。
ビデオ、ドキュメント、コードについて: https://isaac-orbit.github.io/。
関連論文リスト
- M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes [66.44171200767839]
モバイル操作タスクのための全身動作生成のベンチマークであるM3Benchを提案する。
M3Benchは、その構成、環境制約、タスクの目的を理解するために、実施エージェントを必要とする。
M3Benchは119の多様なシーンにまたがる30kのオブジェクト再構成タスクを備えており、新たに開発したM3BenchMakerによって生成された専門家によるデモを提供する。
論文 参考訳(メタデータ) (2024-10-09T08:38:21Z) - 1 Modular Parallel Manipulator for Long-Term Soft Robotic Data Collection [16.103025868841268]
本稿では,大規模データ収集に適した並列ロボット操作プラットフォームを提案する。
プラットフォームモジュールは、カスタマイズ可能なフィンガーを作動させるオフ・ザ・シェルフ電気モーターのペアで構成されている。
ベンチマーク2D操作タスクにおいて,ハードウェア上でのポリシー勾配強化学習に使用するプラットフォームの能力を検証する。
論文 参考訳(メタデータ) (2024-09-05T15:18:44Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - FurnitureBench: Reproducible Real-World Benchmark for Long-Horizon
Complex Manipulation [16.690318684271894]
強化学習(RL)、模倣学習(IL)、タスク・アンド・モーション・プランニング(TAMP)は、様々なロボット操作タスクにおいて印象的なパフォーマンスを示している。
本稿では,ロボット操作の複雑で長期的タスクである実世界の家具組み立てに焦点をあてる。
再現可能な実世界の家具組み立てベンチマークであるFurnitureBenchを紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:29:00Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。