論文の概要: SpeedFolding: Learning Efficient Bimanual Folding of Garments
- arxiv url: http://arxiv.org/abs/2208.10552v1
- Date: Mon, 22 Aug 2022 19:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:36:35.562245
- Title: SpeedFolding: Learning Efficient Bimanual Folding of Garments
- Title(参考訳): SpeedFolding: ガーメントの効果的なバイマダルフォールディングを学習する
- Authors: Yahav Avigal, Lars Berscheid, Tamim Asfour, Torsten Kr\"oger, Ken
Goldberg
- Abstract要約: 我々は,折り畳み服の信頼性と効率のよいバイマニュアルシステムであるSpeedFoldingを開発した。
SpeedFoldingは、ランダムな初期設定から、平均120秒未満で衣類を折り畳むことができ、成功率は93%である。
- 参考スコア(独自算出の注目度): 24.44574039448002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Folding garments reliably and efficiently is a long standing challenge in
robotic manipulation due to the complex dynamics and high dimensional
configuration space of garments. An intuitive approach is to initially
manipulate the garment to a canonical smooth configuration before folding. In
this work, we develop SpeedFolding, a reliable and efficient bimanual system,
which given user-defined instructions as folding lines, manipulates an
initially crumpled garment to (1) a smoothed and (2) a folded configuration.
Our primary contribution is a novel neural network architecture that is able to
predict pairs of gripper poses to parameterize a diverse set of bimanual action
primitives. After learning from 4300 human-annotated and self-supervised
actions, the robot is able to fold garments from a random initial configuration
in under 120s on average with a success rate of 93%. Real-world experiments
show that the system is able to generalize to unseen garments of different
color, shape, and stiffness. While prior work achieved 3-6 Folds Per Hour
(FPH), SpeedFolding achieves 30-40 FPH.
- Abstract(参考訳): 衣料品の複雑な力学と高次元構成空間のため、衣料品の信頼性と効率性はロボット操作における長年の課題である。
直感的なアプローチは、まずは折り畳む前に平滑な構成で衣服を操作することである。
本研究では,(1)スムーズな構成と(2)折りたたみ構成に,ユーザが定義した命令を折りたたみ線として与える信頼性と効率のよいバイマニュアルシステムであるSpeedFoldingを開発した。
私たちの主な貢献は、多様なバイマニュアルアクションプリミティブのセットをパラメータ化するために、グリップポーズのペアを予測することができる新しいニューラルネットワークアーキテクチャです。
ロボットは4300人の注意と自己監督のアクションから学んだ後、平均で平均93%の成功率で、ランダムな初期配置から衣服を折り畳むことができる。
実世界の実験では、色、形状、硬さの異なる衣服に一般化できることが示されている。
前作ではFPH(Folds Per Hour)を3-6回達成したが、SpeedFoldingは30-40回達成した。
関連論文リスト
- PredFormer: Transformers Are Effective Spatial-Temporal Predictive Learners [65.93130697098658]
本稿では、予測学習のための純粋なトランスフォーマーベースのフレームワークであるPredFormerを提案する。
PredFormerは、リカレントフリーでトランスフォーマーベースの設計で、シンプルかつ効率的である。
合成および実世界のデータセットに関する実験は、PredFormerが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - TryOn-Adapter: Efficient Fine-Grained Clothing Identity Adaptation for High-Fidelity Virtual Try-On [34.51850518458418]
仮想試着は、衣服のパターンやテクスチャの歪みを避けながら、特定の人物にシームレスにフィットするように、所定の衣服を調整することに焦点を当てる。
我々はTryOn-Adapterと呼ばれる効果的で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T03:15:41Z) - UniFolding: Towards Sample-efficient, Scalable, and Generalizable
Robotic Garment Folding [53.38503172679482]
UniFoldingは、服の折り畳みと折り畳みを行うための、サンプル効率が高く、スケーラブルで、汎用的なロボットシステムである。
UniFoldingは提案されたUFONetニューラルネットワークを使用して、展開決定と折り畳み決定を単一のポリシーモデルに統合する。
このシステムは、長袖のシャツと短袖のシャツの2種類の衣服でテストされている。
論文 参考訳(メタデータ) (2023-11-02T14:25:10Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Foldsformer: Learning Sequential Multi-Step Cloth Manipulation With
Space-Time Attention [4.2940878152791555]
我々はFoldformerという新しい多段階布の操作計画フレームワークを提案する。
我々は,Foldsformerを4つの逐次的多段階操作タスクに対して実験的に評価した。
我々のアプローチは、追加のトレーニングやドメインのランダム化なしに、シミュレーションから実世界へ移行することができる。
論文 参考訳(メタデータ) (2023-01-08T09:15:45Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - VisuoSpatial Foresight for Physical Sequential Fabric Manipulation [22.008305401551418]
我々はVisual Foresightフレームワーク上に構築され、異なるシーケンシャルなファブリック操作タスクを達成するために効率的に再利用できるファブリックダイナミクスを学習する。
本研究では,データ生成,視覚力学モデルの選択,コスト関数,最適化手順など,VSFの4つのコンポーネントについて検討する。
以上の結果から,より長いコーナーアクションを用いた視覚力学モデルのトレーニングにより,ファブリックの折り畳み効率が76%向上し,VSFが従来90%の信頼性で実行できなかった物理的シーケンシャルなファブリック折り畳み作業が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-19T06:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。