論文の概要: DexGarmentLab: Dexterous Garment Manipulation Environment with Generalizable Policy
- arxiv url: http://arxiv.org/abs/2505.11032v2
- Date: Mon, 19 May 2025 07:28:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 12:45:56.187618
- Title: DexGarmentLab: Dexterous Garment Manipulation Environment with Generalizable Policy
- Title(参考訳): DexGarmentLab: 一般化可能なポリシーによる有害なガーメント操作環境
- Authors: Yuran Wang, Ruihai Wu, Yue Chen, Jiarui Wang, Jiaqi Liang, Ziyu Zhu, Haoran Geng, Jitendra Malik, Pieter Abbeel, Hao Dong,
- Abstract要約: 衣料品の操作は、衣服カテゴリー、ジオメトリー、変形の多様性のために重要な課題である。
DexGarmentLabは,デキスタラスな(特にバイマニュアルな)衣料品の操作に特化して設計された最初の環境である。
15のタスクシナリオのための大規模な高品質な3Dアセットを備え、服のモデリングに適したシミュレーション技術を洗練し、シム・トゥ・リアルのギャップを減らす。
- 参考スコア(独自算出の注目度): 74.9519138296936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Garment manipulation is a critical challenge due to the diversity in garment categories, geometries, and deformations. Despite this, humans can effortlessly handle garments, thanks to the dexterity of our hands. However, existing research in the field has struggled to replicate this level of dexterity, primarily hindered by the lack of realistic simulations of dexterous garment manipulation. Therefore, we propose DexGarmentLab, the first environment specifically designed for dexterous (especially bimanual) garment manipulation, which features large-scale high-quality 3D assets for 15 task scenarios, and refines simulation techniques tailored for garment modeling to reduce the sim-to-real gap. Previous data collection typically relies on teleoperation or training expert reinforcement learning (RL) policies, which are labor-intensive and inefficient. In this paper, we leverage garment structural correspondence to automatically generate a dataset with diverse trajectories using only a single expert demonstration, significantly reducing manual intervention. However, even extensive demonstrations cannot cover the infinite states of garments, which necessitates the exploration of new algorithms. To improve generalization across diverse garment shapes and deformations, we propose a Hierarchical gArment-manipuLation pOlicy (HALO). It first identifies transferable affordance points to accurately locate the manipulation area, then generates generalizable trajectories to complete the task. Through extensive experiments and detailed analysis of our method and baseline, we demonstrate that HALO consistently outperforms existing methods, successfully generalizing to previously unseen instances even with significant variations in shape and deformation where others fail. Our project page is available at: https://wayrise.github.io/DexGarmentLab/.
- Abstract(参考訳): 衣料品の操作は、衣服カテゴリー、ジオメトリー、変形の多様性のために重要な課題である。
それにもかかわらず、人間の手は手のひらさのおかげで、無力で衣服を扱えるのです。
しかし、この分野の既存の研究は、デキスタリティのレベルを再現するのに苦労しており、デキスタラスな衣服操作の現実的なシミュレーションが欠如していることが主な障害となっている。
そこで,DexGarmentLabを提案する。DexGarmentLabは,デキスタラスな(特にバイマティックな)衣服操作用に設計された最初の環境であり,15のタスクシナリオに対して,大規模で高品質な3Dアセットを特徴とする。
従来のデータ収集は通常、労働集約的で非効率な遠隔操作や訓練専門家強化学習(RL)政策に依存している。
本稿では,1つの専門家によるデモンストレーションのみを用いて,衣服構造対応を利用して,多様な軌道を持つデータセットを自動的に生成し,手作業による介入を大幅に低減する。
しかし、広範囲にわたるデモンストレーションでさえ、新しいアルゴリズムの探索を必要とする衣服の無限の状態をカバーすることはできない。
多様な衣服形状と変形の一般化を改善するために,階層型 gArment-manipulation pOlicy (HALO) を提案する。
まず、転送可能な可測点を特定して、操作領域を正確に特定し、タスクを完了させるために一般化可能な軌道を生成する。
提案手法とベースラインの詳細な解析により、HALOは既存の手法よりも一貫して優れており、他の手法が失敗する場合の形状や変形に大きな変化があっても、これまで見られなかったインスタンスに最適化できることを示した。
私たちのプロジェクトページは、https://wayrise.github.io/DexGarmentLab/.com/で利用可能です。
関連論文リスト
- GraphGarment: Learning Garment Dynamics for Bimanual Cloth Manipulation Tasks [7.4467523788133585]
GraphGarmentは、ロボット制御入力に基づいて衣服のダイナミクスをモデル化する新しいアプローチである。
我々は,ロボットのエンドエフェクタと衣料品の相互作用をグラフで表現する。
我々は6種類の衣服を用いて4つの実験を行い、シミュレーションと実世界の両方の環境で我々のアプローチを検証する。
論文 参考訳(メタデータ) (2025-03-04T17:35:48Z) - GarmentLab: A Unified Simulation and Benchmark for Garment Manipulation [12.940189262612677]
GarmentLabは、変形可能なオブジェクトと衣料品の操作のために設計された、コンテンツリッチなベンチマークと現実的なシミュレーションである。
私たちのベンチマークには、さまざまな種類の衣料品、ロボットシステム、マニピュレータが含まれています。
これらの課題に対して、最先端のビジョン手法、強化学習、模倣学習アプローチを評価した。
論文 参考訳(メタデータ) (2024-11-02T10:09:08Z) - SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。