論文の概要: Learning Dense Visual Correspondences in Simulation to Smooth and Fold
Real Fabrics
- arxiv url: http://arxiv.org/abs/2003.12698v2
- Date: Thu, 12 Nov 2020 01:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:37:10.445159
- Title: Learning Dense Visual Correspondences in Simulation to Smooth and Fold
Real Fabrics
- Title(参考訳): 実織物を滑らかに折り畳むシミュレーションにおける密接な視覚対応の学習
- Authors: Aditya Ganapathi, Priya Sundaresan, Brijen Thananjeyan, Ashwin
Balakrishna, Daniel Seita, Jennifer Grannen, Minho Hwang, Ryan Hoque, Joseph
E. Gonzalez, Nawid Jamali, Katsu Yamane, Soshi Iba, Ken Goldberg
- Abstract要約: 我々は、異なる構成の変形可能な織物の視覚的対応をシミュレーションで学習する。
学習した対応は、新しいファブリック構成で幾何学的に等価な動作を計算するのに使うことができる。
また、さまざまな色、大きさ、形状の織物についても、その結果が示唆されている。
- 参考スコア(独自算出の注目度): 35.84249614544505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic fabric manipulation is challenging due to the infinite dimensional
configuration space, self-occlusion, and complex dynamics of fabrics. There has
been significant prior work on learning policies for specific deformable
manipulation tasks, but comparatively less focus on algorithms which can
efficiently learn many different tasks. In this paper, we learn visual
correspondences for deformable fabrics across different configurations in
simulation and show that this representation can be used to design policies for
a variety of tasks. Given a single demonstration of a new task from an initial
fabric configuration, the learned correspondences can be used to compute
geometrically equivalent actions in a new fabric configuration. This makes it
possible to robustly imitate a broad set of multi-step fabric smoothing and
folding tasks on multiple physical robotic systems. The resulting policies
achieve 80.3% average task success rate across 10 fabric manipulation tasks on
two different robotic systems, the da Vinci surgical robot and the ABB YuMi.
Results also suggest robustness to fabrics of various colors, sizes, and
shapes. See https://tinyurl.com/fabric-descriptors for supplementary material
and videos.
- Abstract(参考訳): ロボットの布の操作は、無限次元の構成空間、自己完結、布の複雑なダイナミクスのために困難である。
特定の変形可能な操作タスクの学習ポリシーには、以前の大きな作業があったが、多くの異なるタスクを効率的に学習できるアルゴリズムに比較的焦点が当てられていない。
本稿では,様々な構成の変形可能な織物の視覚的対応をシミュレーションにより学習し,この表現が様々なタスクのポリシー設計に利用できることを示す。
最初のファブリック構成から新しいタスクを1回デモすると、学習された対応式は、新しいファブリック構成で幾何学的に等価なアクションを計算するのに使うことができる。
これにより、複数の物理ロボットシステム上でのタスクの平滑化と折り畳みを多段階の布地を忠実に模倣することができる。
その結果、da vinci surgery robot と abb yumi の2つの異なるロボットシステムにおいて、10のファブリック操作タスクで平均80.3%のタスク成功率を達成した。
結果は、様々な色、大きさ、形状の織物にも堅牢性を示す。
補足資料とビデオはhttps://tinyurl.com/fabric-descriptorを参照。
関連論文リスト
- UniFolding: Towards Sample-efficient, Scalable, and Generalizable
Robotic Garment Folding [53.38503172679482]
UniFoldingは、服の折り畳みと折り畳みを行うための、サンプル効率が高く、スケーラブルで、汎用的なロボットシステムである。
UniFoldingは提案されたUFONetニューラルネットワークを使用して、展開決定と折り畳み決定を単一のポリシーモデルに統合する。
このシステムは、長袖のシャツと短袖のシャツの2種類の衣服でテストされている。
論文 参考訳(メタデータ) (2023-11-02T14:25:10Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - Foldsformer: Learning Sequential Multi-Step Cloth Manipulation With
Space-Time Attention [4.2940878152791555]
我々はFoldformerという新しい多段階布の操作計画フレームワークを提案する。
我々は,Foldsformerを4つの逐次的多段階操作タスクに対して実験的に評価した。
我々のアプローチは、追加のトレーニングやドメインのランダム化なしに、シミュレーションから実世界へ移行することができる。
論文 参考訳(メタデータ) (2023-01-08T09:15:45Z) - Learning Fabric Manipulation in the Real World with Human Videos [10.608723220309678]
ファブリック操作は、巨大な状態空間と複雑な力学のため、ロボット工学における長年の課題である。
従来の手法のほとんどはシミュレーションに大きく依存しており、依然として変形可能な物体の大きなsim-to-realギャップによって制限されている。
有望な代替手段は、人間がタスクを実行するのを見ることから直接布地操作を学ぶことである。
論文 参考訳(メタデータ) (2022-11-05T07:09:15Z) - Learning Tool Morphology for Contact-Rich Manipulation Tasks with
Differentiable Simulation [27.462052737553055]
本稿では,異なる物理シミュレータを応用して,コンタクトリッチな操作タスクのためのツール形態を自動学習するエンドツーエンドフレームワークを提案する。
提案手法では,タスク性能に関する目的を定義し,タスクの変動をランダムにすることで,頑健な形態学の学習を可能にする。
提案手法の有効性を, ロープの巻き上げ, 箱をひっくり返し, ピースをスクープに押し付けるなど, 様々なシナリオにおける新しいツールの設計手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-04T00:57:36Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - VisuoSpatial Foresight for Physical Sequential Fabric Manipulation [22.008305401551418]
我々はVisual Foresightフレームワーク上に構築され、異なるシーケンシャルなファブリック操作タスクを達成するために効率的に再利用できるファブリックダイナミクスを学習する。
本研究では,データ生成,視覚力学モデルの選択,コスト関数,最適化手順など,VSFの4つのコンポーネントについて検討する。
以上の結果から,より長いコーナーアクションを用いた視覚力学モデルのトレーニングにより,ファブリックの折り畳み効率が76%向上し,VSFが従来90%の信頼性で実行できなかった物理的シーケンシャルなファブリック折り畳み作業が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-19T06:06:49Z) - VisuoSpatial Foresight for Multi-Step, Multi-Task Fabric Manipulation [24.262746504997683]
我々はVisual Foresightフレームワークを拡張して、異なるファブリック操作タスクを達成するために効率的に再利用できるファブリックダイナミクスを学習する。
シミュレーションにおいて,多段階の布地平滑化および折り畳み作業に対して,VSFをシミュレーションで評価し,da Vinci Research Kit (dVRK) の手術用ロボットに対して,列車や試験時間でのデモンストレーションを行なわずに,VSFを実験的に評価した。
論文 参考訳(メタデータ) (2020-03-19T23:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。