論文の概要: Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation
- arxiv url: http://arxiv.org/abs/2303.04016v2
- Date: Thu, 9 Mar 2023 07:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 11:21:53.812850
- Title: Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation
- Title(参考訳): 汎用オブジェクト操作のためのロボット制御からのスキル学習の分離
- Authors: Kai Lu, Bo Yang, Bing Wang, Andrew Markham
- Abstract要約: ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
- 参考スコア(独自算出の注目度): 35.34044822433743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works in robotic manipulation through reinforcement learning (RL) or
imitation learning (IL) have shown potential for tackling a range of tasks
e.g., opening a drawer or a cupboard. However, these techniques generalize
poorly to unseen objects. We conjecture that this is due to the
high-dimensional action space for joint control. In this paper, we take an
alternative approach and separate the task of learning 'what to do' from 'how
to do it' i.e., whole-body control. We pose the RL problem as one of
determining the skill dynamics for a disembodied virtual manipulator
interacting with articulated objects. The whole-body robotic kinematic control
is optimized to execute the high-dimensional joint motion to reach the goals in
the workspace. It does so by solving a quadratic programming (QP) model with
robotic singularity and kinematic constraints. Our experiments on manipulating
complex articulated objects show that the proposed approach is more
generalizable to unseen objects with large intra-class variations,
outperforming previous approaches. The evaluation results indicate that our
approach generates more compliant robotic motion and outperforms the pure RL
and IL baselines in task success rates. Additional information and videos are
available at https://kl-research.github.io/decoupskill
- Abstract(参考訳): 強化学習(RL)や模倣学習(IL)によるロボット操作の最近の研究は、例えば引き出しや食器棚を開くといった様々なタスクに取り組む可能性を示している。
しかし、これらの手法は目に見えない物体にはあまり一般化しない。
これはジョイント制御のための高次元作用空間によるものであると推測する。
本稿では,「何をするか」を「どのように行うか」から学習するタスク,すなわち全身制御を分離する手法を提案する。
我々は,人工関節と相互作用する仮想マニピュレータのスキルダイナミクス決定の一手法としてrl問題を提案する。
全身ロボット運動制御は、作業空間の目標を達成するために高次元関節運動を実行するように最適化される。
ロボット特異点とキネマティック制約を持つ二次プログラミング(QP)モデルを解くことで実現している。
複雑な調音物体の操作に関する実験により,提案手法はクラス内変動が大きい物体に対してより一般化可能であることを示す。
評価の結果,提案手法はより協調的なロボット動作を生成し,タスク成功率の純粋rlおよびilベースラインを上回った。
追加情報とビデオはhttps://kl-research.github.io/decoupskillで入手できる。
関連論文リスト
- Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [9.528351777701811]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - VoxPoser: Composable 3D Value Maps for Robotic Manipulation with
Language Models [38.503337052122234]
大規模言語モデル(LLM)は、ロボット操作のために抽出できる豊富な行動可能な知識を持っていることが示されている。
我々は,オープンな命令セットとオープンなオブジェクトセットが与えられた様々な操作タスクに対して,ロボット軌道を合成することを目指している。
筆者らは,接触に富んだインタラクションを含むシーンのダイナミックスモデルを効率的に学習することで,提案フレームワークがオンライン体験の恩恵を享受できることを実証する。
論文 参考訳(メタデータ) (2023-07-12T07:40:48Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Active Exploration for Robotic Manipulation [40.39182660794481]
本稿では,スパース・リワード型ロボット操作作業における効率的な学習を可能にするモデルに基づく能動探索手法を提案する。
我々は,提案アルゴリズムをシミュレーションおよび実ロボットで評価し,スクラッチから本手法を訓練した。
論文 参考訳(メタデータ) (2022-10-23T18:07:51Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。