論文の概要: Accelerating Interactive Human-like Manipulation Learning with GPU-based
Simulation and High-quality Demonstrations
- arxiv url: http://arxiv.org/abs/2212.02126v1
- Date: Mon, 5 Dec 2022 09:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:14:15.222367
- Title: Accelerating Interactive Human-like Manipulation Learning with GPU-based
Simulation and High-quality Demonstrations
- Title(参考訳): gpuシミュレーションと高品質デモンストレーションによる対話型ヒューマンライクな操作学習の高速化
- Authors: Malte Mosbach, Kara Moraw, Sven Behnke
- Abstract要約: コンタクトリッチなタスクを対話的に操作するための没入型仮想現実遠隔操作インタフェースを提案する。
我々は,大規模並列RLと模倣学習の相補的強みを実証し,頑健で自然な振る舞いを示す。
- 参考スコア(独自算出の注目度): 25.393382192511716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dexterous manipulation with anthropomorphic robot hands remains a challenging
problem in robotics because of the high-dimensional state and action spaces and
complex contacts. Nevertheless, skillful closed-loop manipulation is required
to enable humanoid robots to operate in unstructured real-world environments.
Reinforcement learning (RL) has traditionally imposed enormous interaction data
requirements for optimizing such complex control problems. We introduce a new
framework that leverages recent advances in GPU-based simulation along with the
strength of imitation learning in guiding policy search towards promising
behaviors to make RL training feasible in these domains. To this end, we
present an immersive virtual reality teleoperation interface designed for
interactive human-like manipulation on contact rich tasks and a suite of
manipulation environments inspired by tasks of daily living. Finally, we
demonstrate the complementary strengths of massively parallel RL and imitation
learning, yielding robust and natural behaviors. Videos of trained policies,
our source code, and the collected demonstration datasets are available at
https://maltemosbach.github.io/interactive_ human_like_manipulation/.
- Abstract(参考訳): ロボットハンドによる巧妙な操作は、高次元の状態と動作空間と複雑な接触のため、ロボット工学において難しい課題である。
それでも、ヒューマノイドロボットが非構造化実環境で動作するためには、巧妙なクローズドループ操作が必要である。
強化学習(RL)は伝統的に、このような複雑な制御問題を最適化するために、膨大な相互作用データ要求を課してきた。
我々は,GPUに基づくシミュレーションの最近の進歩と,これらの領域でRLトレーニングを実現するために,ポリシー探索を有望な行動へと導く上での模倣学習の強みを活用する新しいフレームワークを導入する。
そこで本研究では,コンタクトリッチなタスクを対話的に操作するための没入型仮想現実遠隔操作インタフェースと,日常生活のタスクに触発された操作環境について述べる。
最後に,超並列rlと模倣学習の相補的な強みを示し,頑健かつ自然な行動を与える。
トレーニング済みのポリシー、ソースコード、収集されたデモデータセットのビデオはhttps://maltemosbach.github.io/interactive_ human_like_manipulation/で公開されている。
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。