論文の概要: GenDOM: Generalizable One-shot Deformable Object Manipulation with
Parameter-Aware Policy
- arxiv url: http://arxiv.org/abs/2309.09051v3
- Date: Fri, 23 Feb 2024 07:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:07:58.284404
- Title: GenDOM: Generalizable One-shot Deformable Object Manipulation with
Parameter-Aware Policy
- Title(参考訳): GenDOM:パラメータ対応ポリシーによる汎用的なワンショットデフォルマブルオブジェクト操作
- Authors: So Kuroki, Jiaxian Guo, Tatsuya Matsushima, Takuya Okubo, Masato
Kobayashi, Yuya Ikeda, Ryosuke Takanami, Paul Yoo, Yutaka Matsuo, Yusuke
Iwasawa
- Abstract要約: 我々は,1つの実世界の実演だけで異なる変形可能なオブジェクトを操作できるフレームワークであるGenDOMを紹介した。
新しいオブジェクトが推測されると、GenDOMは1つの実世界のデモだけで変形可能なオブジェクトパラメータを推定できる。
シミュレーションおよび実世界のオブジェクト操作設定の実証検証により,本手法が一つの実演で異なるオブジェクトを操作できることが明らかとなった。
- 参考スコア(独自算出の注目度): 23.72998685542652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the inherent uncertainty in their deformability during motion,
previous methods in deformable object manipulation, such as rope and cloth,
often required hundreds of real-world demonstrations to train a manipulation
policy for each object, which hinders their applications in our ever-changing
world. To address this issue, we introduce GenDOM, a framework that allows the
manipulation policy to handle different deformable objects with only a single
real-world demonstration. To achieve this, we augment the policy by
conditioning it on deformable object parameters and training it with a diverse
range of simulated deformable objects so that the policy can adjust actions
based on different object parameters. At the time of inference, given a new
object, GenDOM can estimate the deformable object parameters with only a single
real-world demonstration by minimizing the disparity between the grid density
of point clouds of real-world demonstrations and simulations in a
differentiable physics simulator. Empirical validations on both simulated and
real-world object manipulation setups clearly show that our method can
manipulate different objects with a single demonstration and significantly
outperforms the baseline in both environments (a 62% improvement for in-domain
ropes and a 15% improvement for out-of-distribution ropes in simulation, as
well as a 26% improvement for ropes and a 50% improvement for cloths in the
real world), demonstrating the effectiveness of our approach in one-shot
deformable object manipulation.
- Abstract(参考訳): 動作中の変形性に固有の不確実性があるため、ロープや布などの変形可能なオブジェクト操作の以前の方法は、各オブジェクトの操作ポリシーを訓練するために、何百もの実世界のデモンストレーションを必要とした。
この問題に対処するため,1つの実世界の実演だけで異なる変形可能なオブジェクトを操作できるフレームワークであるGenDOMを紹介した。
これを実現するために、変形可能なオブジェクトパラメータに条件付けし、様々な種類の変形可能なオブジェクトでトレーニングすることで、ポリシーを補強し、異なるオブジェクトパラメータに基づいてアクションを調整する。
新しいオブジェクトが推測されたとき、GenDOMは、実世界のデモの点雲の格子密度と微分可能な物理シミュレータのシミュレーションとの差を最小化することにより、単一の実世界のデモだけで変形可能なオブジェクトパラメータを推定できる。
Empirical validations on both simulated and real-world object manipulation setups clearly show that our method can manipulate different objects with a single demonstration and significantly outperforms the baseline in both environments (a 62% improvement for in-domain ropes and a 15% improvement for out-of-distribution ropes in simulation, as well as a 26% improvement for ropes and a 50% improvement for cloths in the real world), demonstrating the effectiveness of our approach in one-shot deformable object manipulation.
関連論文リスト
- RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
ロボットは実世界のロボット応用において,頑健な知覚と操作性を示すことが不可欠である。
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Learning visual-based deformable object rearrangement with local graph
neural networks [4.333220038316982]
本稿では,変形可能なオブジェクト状態とキーポイントの集合とその相互作用を効率的にモデル化できる新しい表現戦略を提案する。
また、変形可能な再配置ダイナミクスを共同でモデル化し、最適操作動作を推定するための光局所GNN学習を提案する。
本手法は, 各種変形可能なアレンジメントタスク(平均96.3%)において, シミュレーション実験における最先端手法よりもはるかに高い成功率を達成する。
論文 参考訳(メタデータ) (2023-10-16T11:42:54Z) - GenORM: Generalizable One-shot Rope Manipulation with Parameter-Aware
Policy [17.682208882809487]
GenORMは、操作ポリシーが1つの実世界のデモで異なる変形可能なロープを処理できるようにするフレームワークです。
新しいロープが与えられたとき、GenORMは、実世界の実演とシミュレーションの点雲の格子密度の差を最小限にして、変形可能なロープパラメータを推定する。
実世界のロープ操作のシミュレーションと実世界のロープ操作の実証実験により,本手法が一つの実演で異なるロープを操作できることが明らかとなった。
論文 参考訳(メタデータ) (2023-06-14T03:37:55Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Virtual Elastic Objects [18.228492027143307]
現実のオブジェクトのように振る舞う仮想オブジェクトを構築します。
我々は、微分可能な粒子ベースシミュレータを用いて、変形場を用いて代表材料パラメータを探索する。
各種力場下で12個のオブジェクトのデータセットを用いて実験を行い,コミュニティと共有する。
論文 参考訳(メタデータ) (2022-01-12T18:59:03Z) - A Bayesian Treatment of Real-to-Sim for Deformable Object Manipulation [59.29922697476789]
本稿では,変形可能な物体の状態を分布埋め込みとして表現する手法を用いて,画像列から状態情報を抽出する手法を提案する。
実験により, 弾性, 摩擦, スケールなどの物性の後方分布を, 布やロープなどの高変形性物体で推定できることが確認された。
論文 参考訳(メタデータ) (2021-12-09T17:50:54Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。