論文の概要: UniFolding: Towards Sample-efficient, Scalable, and Generalizable
Robotic Garment Folding
- arxiv url: http://arxiv.org/abs/2311.01267v1
- Date: Thu, 2 Nov 2023 14:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 13:11:07.075876
- Title: UniFolding: Towards Sample-efficient, Scalable, and Generalizable
Robotic Garment Folding
- Title(参考訳): unifolding: サンプル効率,スケーラブル,汎用性を備えたロボット服の折りたたみ
- Authors: Han Xue, Yutong Li, Wenqiang Xu, Huanyu Li, Dongzhe Zheng, Cewu Lu
- Abstract要約: UniFoldingは、服の折り畳みと折り畳みを行うための、サンプル効率が高く、スケーラブルで、汎用的なロボットシステムである。
UniFoldingは提案されたUFONetニューラルネットワークを使用して、展開決定と折り畳み決定を単一のポリシーモデルに統合する。
このシステムは、長袖のシャツと短袖のシャツの2種類の衣服でテストされている。
- 参考スコア(独自算出の注目度): 53.38503172679482
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper explores the development of UniFolding, a sample-efficient,
scalable, and generalizable robotic system for unfolding and folding various
garments. UniFolding employs the proposed UFONet neural network to integrate
unfolding and folding decisions into a single policy model that is adaptable to
different garment types and states. The design of UniFolding is based on a
garment's partial point cloud, which aids in generalization and reduces
sensitivity to variations in texture and shape. The training pipeline
prioritizes low-cost, sample-efficient data collection. Training data is
collected via a human-centric process with offline and online stages. The
offline stage involves human unfolding and folding actions via Virtual Reality,
while the online stage utilizes human-in-the-loop learning to fine-tune the
model in a real-world setting. The system is tested on two garment types:
long-sleeve and short-sleeve shirts. Performance is evaluated on 20 shirts with
significant variations in textures, shapes, and materials. More experiments and
videos can be found in the supplementary materials and on the website:
https://unifolding.robotflow.ai
- Abstract(参考訳): 本稿では, 様々な衣服の折り畳み・折り畳みを行うための, サンプル効率, 拡張性, 一般化可能なロボットシステムUniFoldingの開発について検討する。
UniFoldingは、提案されたUFONetニューラルネットワークを使用して、折り畳みと折り畳みの決定を、異なる衣服タイプや状態に適応可能な単一のポリシーモデルに統合する。
UniFoldingの設計は衣服の部分的な点雲に基づいており、これは一般化を助け、テクスチャや形状の変化に対する感度を低下させる。
トレーニングパイプラインは、低コストでサンプル効率のよいデータ収集を優先する。
トレーニングデータは、オフラインおよびオンラインステージを備えた人間中心のプロセスを通じて収集される。
オフラインのステージは、バーチャルリアリティーによる人間の展開と折り畳みアクション、オンラインステージは、実際の環境でモデルを微調整するために、人間のループ学習を利用する。
このシステムは、長袖と短袖の2種類の衣服でテストされている。
テクスチャ, 形状, 材料に有意な差異がある20のシャツで性能を評価する。
さらなる実験やビデオは補足資料やWebサイト(https://unifolding.robotflow.ai.)で見ることができる。
関連論文リスト
- SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Wearable-based Classification of Running Styles with Deep Learning [8.422257363944295]
我々はウェアラブルを用いてランニングスタイルを分類できるシステムを開発した。
5つのウェアラブルデバイスは、下半身の異なる部分からの加速度計データを記録するために使用される。
提案モデルでは,異なるランニングスタイルを主観的な方法で自動的に分類できることを示す。
論文 参考訳(メタデータ) (2021-09-01T19:55:06Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Learning Dense Visual Correspondences in Simulation to Smooth and Fold
Real Fabrics [35.84249614544505]
我々は、異なる構成の変形可能な織物の視覚的対応をシミュレーションで学習する。
学習した対応は、新しいファブリック構成で幾何学的に等価な動作を計算するのに使うことができる。
また、さまざまな色、大きさ、形状の織物についても、その結果が示唆されている。
論文 参考訳(メタデータ) (2020-03-28T04:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。