論文の概要: Isaac Gym: High Performance GPU-Based Physics Simulation For Robot
Learning
- arxiv url: http://arxiv.org/abs/2108.10470v2
- Date: Wed, 25 Aug 2021 23:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-08-27 09:34:36.226067
- Title: Isaac Gym: High Performance GPU-Based Physics Simulation For Robot
Learning
- Title(参考訳): Isaac Gym: ロボット学習のための高性能GPUベースの物理シミュレーション
- Authors: Viktor Makoviychuk, Lukasz Wawrzyniak, Yunrong Guo, Michelle Lu, Kier
Storey, Miles Macklin, David Hoeller, Nikita Rudin, Arthur Allshire, Ankur
Handa, Gavriel State
- Abstract要約: Isaac Gym氏は、GPU上でさまざまなロボティクスタスクのポリシーをトレーニングする、高性能な学習プラットフォームを提供している。
物理シミュレーションとニューラルネットワークポリシトレーニングトレーニングの両方が、データをPyTorchに直接渡すことで通信する。
これにより、単一のGPU上での複雑なロボティクスタスクの高速トレーニング時間が2~3桁改善される。
- 参考スコア(独自算出の注目度): 5.786157611032947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Isaac Gym offers a high performance learning platform to train policies for
wide variety of robotics tasks directly on GPU. Both physics simulation and the
neural network policy training reside on GPU and communicate by directly
passing data from physics buffers to PyTorch tensors without ever going through
any CPU bottlenecks. This leads to blazing fast training times for complex
robotics tasks on a single GPU with 2-3 orders of magnitude improvements
compared to conventional RL training that uses a CPU based simulator and GPU
for neural networks. We host the results and videos at
\url{https://sites.google.com/view/isaacgym-nvidia} and isaac gym can be
downloaded at \url{https://developer.nvidia.com/isaac-gym}.
- Abstract(参考訳): Isaac Gymは、GPU上でさまざまなロボットタスクのポリシーをトレーニングする、高性能な学習プラットフォームを提供する。
物理シミュレーションとニューラルネットワークポリシのトレーニングはどちらもgpu上にあり、物理バッファからpytorchテンソルに直接データを渡すことで、cpuボトルネックを乗り越えることなく通信する。
これにより、ニューラルネットワークにcpuベースのシミュレータとgpuを使用する従来のrlトレーニングに比べて、複雑なロボットタスクを1つのgpu上で高速にトレーニングする時間が2~3桁向上した。
結果は \url{https://sites.google.com/view/isaacgym-nvidia} でホストされ、isaac gymは \url{https://developer.nvidia.com/isaac-gym} でダウンロードできる。
関連論文リスト
- GeoPT: Scaling Physics Simulation via Lifted Geometric Pre-Training [86.70824679370524]
我々は,持ち上げ幾何事前学習に基づく一般物理シミュレーションのための統一事前学習モデルGeoPTを提案する。
中心となる考え方は、幾何学を合成力学で強化し、物理ラベルなしで動的に認識できる自己超越を可能にすることである。
論文 参考訳(メタデータ) (2026-02-23T22:32:08Z) - Isaac Lab: A GPU-Accelerated Simulation Framework for Multi-Modal Robot Learning [72.43357471969564]
Isaac Labは、高忠実度GPU並列物理、レンダリング、および環境の設計とロボットポリシーのトレーニングのためのモジュラーで構成可能なアーキテクチャを組み合わせる。
我々は、全身制御、クロス・エボディメント・モビリティ、接触豊かで器用な操作、スキル獲得のための人間のデモの統合など、さまざまな課題へのその応用を強調した。
アイザック・ラボの高度なシミュレーション能力、リッチセンシング、データセンターのスケール実行の組み合わせは、ロボット研究における次世代のブレークスルーを解き放つのに役立つと信じています。
論文 参考訳(メタデータ) (2025-11-06T21:43:02Z) - GaussGym: An open-source real-to-sim framework for learning locomotion from pixels [78.05453137978132]
本稿では,3次元ガウススプラッティングをベクトル化物理シミュレータのドロップインとして統合した光現実的ロボットシミュレーションを提案する。
これにより、コンシューマGPUで毎秒10万ステップを超える、前例のないスピードを実現している。
また,シミュレーティブ・トゥ・リアル・ロボティクス・セッティングにおける適用性を実証した。
論文 参考訳(メタデータ) (2025-10-17T06:34:52Z) - ManiSkill3: GPU Parallelized Robotics Simulation and Rendering for Generalizable Embodied AI [27.00155119759743]
ManiSkill3は、汎用的な操作をターゲットとしたコンタクトリッチな物理を備えた、最先端のGPU並列化ロボットシミュレータである。
ManiSkill3は、シミュレーション+レンダリング、異種シミュレーション、ポイントクラウド/ボクセルビジュアル入力など、多くの面でGPU並列化をサポートしている。
論文 参考訳(メタデータ) (2024-10-01T06:10:39Z) - Flash3D: Feed-Forward Generalisable 3D Scene Reconstruction from a Single Image [80.48452783328995]
Flash3Dは、1つの画像からシーン再構成と新しいビュー合成を行う方法である。
一般性については、単分子深度推定のための「基礎」モデルから始める。
効率性のために、我々はこの拡張をフィードフォワードガウススプラッティングに基づける。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Training a Large Video Model on a Single Machine in a Day [5.247398948623659]
コンシューマグレードのGPUを1日に8台搭載した1台のマシン上で,最先端のビデオモデルをトレーニングする方法を示す。
IO、CPU、GPUの3つのボトルネックを特定し、それぞれを最適化します。
同等のアーキテクチャでは、私たちのパイプラインは以前の処理に比べて、$frac18$の計算で高い精度を実現しています。
論文 参考訳(メタデータ) (2023-09-28T17:59:50Z) - Comparative Analysis of CPU and GPU Profiling for Deep Learning Models [0.0]
本稿では、Pytorchを用いて深層ニューラルネットワークをトレーニングしながら、CPUとGPUの時間とメモリ割り当てを示す。
単純なネットワークでは、CPUよりもGPUが大幅に改善されることはない。
論文 参考訳(メタデータ) (2023-09-05T18:22:11Z) - FlexGen: High-Throughput Generative Inference of Large Language Models
with a Single GPU [89.2451963569343]
FlexGenは、単一のコモディティGPU上で大きな言語モデル(LLM)推論を実行するための世代エンジンである。
1つの16GB GPU上でOPT-175Bを実行する場合、FlexGenは最先端のオフロードシステムに比べてスループットが大幅に向上する。
HELMベンチマークでは、FlexGenは7つの代表サブシナリオに16GBのGPUで30Bモデルを21時間でベンチマークすることができる。
論文 参考訳(メタデータ) (2023-03-13T05:19:28Z) - Optimizing Data Collection in Deep Reinforcement Learning [4.9709347068704455]
GPUベクタライゼーションは、一般的に使用されるCPUシミュレータよりも最大1024タイムでスピードアップできる。
シミュレーションの複雑さがメモリ帯域幅の要求で増大するにつれて、シミュレーターカーネルの核融合の高速化は11.3Times$となり、最大1024times$に増加することを示す。
論文 参考訳(メタデータ) (2022-07-15T20:22:31Z) - VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse [77.52012928882928]
INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
論文 参考訳(メタデータ) (2022-06-23T17:53:33Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Megaverse: Simulating Embodied Agents at One Million Experiences per
Second [75.1191260838366]
私たちは、強化学習と具体化AI研究のための新しい3DシミュレーションプラットフォームであるMegaverseを紹介します。
MegaverseはDeepMind Labより最大70倍速い。
私たちはMegaverseを使って、複数の単一エージェントタスクとマルチエージェントタスクからなる新しいベンチマークを構築します。
論文 参考訳(メタデータ) (2021-07-17T03:16:25Z) - Large Batch Simulation for Deep Reinforcement Learning [101.01408262583378]
我々は,視覚複雑な3次元環境における深層強化学習に基づく学習を,事前作業よりも2桁高速化する。
単一のGPUマシンで1秒間に19,000フレーム以上の経験と最大72,000フレーム/秒のエンドツーエンドのトレーニング速度を実現します。
バッチシミュレーションと性能最適化を組み合わせることで、1つのGPU上の複雑な3D環境において、従来の最先端システムでトレーニングされたエージェントの精度の97%から97%まで、ポイントナビゲーションエージェントをトレーニングできることを実証する。
論文 参考訳(メタデータ) (2021-03-12T00:22:50Z) - Computational Performance Predictions for Deep Neural Network Training:
A Runtime-Based Approach [1.5857983167543392]
本稿では,ユーザが情報と費用効率のよいGPU選択を行うための,新しい実践手法を提案する。
我々は、(i)ウェーブスケーリング、または(ii)GPUの実行モデルに基づく技術、または(ii)事前訓練されたマルチレイヤーパーセプトロンを用いて、トレーニングイテレーション中の各操作の実行時間を1つのGPUから別のGPUにスケーリングすることで予測を行う。
この手法をSurferというPythonライブラリに実装し、ResNet-50、Inception v3、Transformer、GNMT、DCGANで正確なイテレーション実行時間予測を行う。
論文 参考訳(メタデータ) (2021-01-31T20:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。