論文の概要: Learning Latent Graph Dynamics for Deformable Object Manipulation
- arxiv url: http://arxiv.org/abs/2104.12149v1
- Date: Sun, 25 Apr 2021 13:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 08:30:11.096985
- Title: Learning Latent Graph Dynamics for Deformable Object Manipulation
- Title(参考訳): 変形可能なオブジェクト操作のための潜在グラフダイナミクスの学習
- Authors: Xiao Ma, David Hsu, Wee Sun Lee
- Abstract要約: 本研究はDefOrmable Object Manipulationの遅延グラフダイナミクスを学習することを目的とする。
G-DOOMは、変形可能なオブジェクトを相互作用するキーポイントのスパースセットとして近似する。
キーポイントの幾何と相互作用のダイナミクスを抽象的に捉えるグラフニューラルネットワークを学習する。
- 参考スコア(独自算出の注目度): 37.12269538618698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manipulating deformable objects, such as cloth and ropes, is a long-standing
challenge in robotics: their large number of degrees of freedom (DoFs) and
complex non-linear dynamics make motion planning extremely difficult. This work
aims to learn latent Graph dynamics for DefOrmable Object Manipulation
(G-DOOM). To tackle the challenge of many DoFs and complex dynamics, G-DOOM
approximates a deformable object as a sparse set of interacting keypoints and
learns a graph neural network that captures abstractly the geometry and
interaction dynamics of the keypoints. Further, to tackle the perceptual
challenge, specifically, object self-occlusion, G-DOOM adds a recurrent neural
network to track the keypoints over time and condition their interactions on
the history. We then train the resulting recurrent graph dynamics model through
contrastive learning in a high-fidelity simulator. For manipulation planning,
G-DOOM explicitly reasons about the learned dynamics model through
model-predictive control applied at each of the keypoints. We evaluate G-DOOM
on a set of challenging cloth and rope manipulation tasks and show that G-DOOM
outperforms a state-of-the-art method. Further, although trained entirely on
simulation data, G-DOOM transfers directly to a real robot for both cloth and
rope manipulation in our experiments.
- Abstract(参考訳): 布やロープなどの変形可能な物体を操作することは、ロボット工学における長年の課題である。
本研究の目的は、DefOrmable Object Manipulation (G-DOOM)のための潜伏グラフのダイナミクスを学ぶことである。
多くのdofと複雑なダイナミクスの課題に取り組むため、g-doomは相互作用するキーポイントのスパースセットとして変形可能なオブジェクトを近似し、キーポイントの幾何と相互作用のダイナミクスを抽象的に捉えたグラフニューラルネットワークを学習する。
さらに、知覚的課題、具体的にはオブジェクトの自己隠蔽に対処するために、G-DOOMは、時間とともにキーポイントを追跡し、履歴上のインタラクションを条件付けるために、繰り返しニューラルネットワークを追加する。
次に、高忠実度シミュレータのコントラスト学習により、結果の反復グラフダイナミクスモデルを訓練する。
操作計画のために、g-doomは各キーポイントに適用されるモデル予測制御を通じて学習力学モデルについて明示的に理由を定める。
我々は,G-DOOM が最先端の手法よりも優れていることを示すために,一連の挑戦的な布地やロープ操作作業において G-DOOM を評価する。
さらに,シミュレーションデータに基づいてトレーニングを行ったが,g-doomは実際のロボットに直接移動し,布とロープの操作を行う。
関連論文リスト
- RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - Deep Learning for Koopman-based Dynamic Movement Primitives [0.0]
実証から学ぶために,クープマン演算子と動的運動プリミティブの理論を結合して新しいアプローチを提案する。
我々のアプローチは glsadmd と呼ばれ、非線形力学系を線形潜在空間に射影し、解が所望の複素運動を再現する。
我々の結果は、LASAハンドライトデータセット上の拡張動的モード分解に匹敵するが、わずかな文字のトレーニングしか行わない。
論文 参考訳(メタデータ) (2023-12-06T07:33:22Z) - VoxPoser: Composable 3D Value Maps for Robotic Manipulation with
Language Models [38.503337052122234]
大規模言語モデル(LLM)は、ロボット操作のために抽出できる豊富な行動可能な知識を持っていることが示されている。
我々は,オープンな命令セットとオープンなオブジェクトセットが与えられた様々な操作タスクに対して,ロボット軌道を合成することを目指している。
筆者らは,接触に富んだインタラクションを含むシーンのダイナミックスモデルを効率的に学習することで,提案フレームワークがオンライン体験の恩恵を享受できることを実証する。
論文 参考訳(メタデータ) (2023-07-12T07:40:48Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z) - Hindsight for Foresight: Unsupervised Structured Dynamics Models from
Physical Interaction [24.72947291987545]
エージェントが世界と対話することを学ぶための鍵となる課題は、オブジェクトの物理的性質を推論することである。
本研究では,ラベルのない3次元点群と画像から直接,ロボットのインタラクションのダイナミクスをモデル化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-02T11:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。