論文の概要: GraphGarment: Learning Garment Dynamics for Bimanual Cloth Manipulation Tasks
- arxiv url: http://arxiv.org/abs/2503.05817v2
- Date: Tue, 11 Mar 2025 00:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 19:15:47.322352
- Title: GraphGarment: Learning Garment Dynamics for Bimanual Cloth Manipulation Tasks
- Title(参考訳): GraphGarment: 双方向の衣服操作タスクにおけるガーメントダイナミクスの学習
- Authors: Wei Chen, Kelin Li, Dongmyoung Lee, Xiaoshuai Chen, Rui Zong, Petar Kormushev,
- Abstract要約: GraphGarmentは、ロボット制御入力に基づいて衣服のダイナミクスをモデル化する新しいアプローチである。
我々は,ロボットのエンドエフェクタと衣料品の相互作用をグラフで表現する。
我々は6種類の衣服を用いて4つの実験を行い、シミュレーションと実世界の両方の環境で我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 7.4467523788133585
- License:
- Abstract: Physical manipulation of garments is often crucial when performing fabric-related tasks, such as hanging garments. However, due to the deformable nature of fabrics, these operations remain a significant challenge for robots in household, healthcare, and industrial environments. In this paper, we propose GraphGarment, a novel approach that models garment dynamics based on robot control inputs and applies the learned dynamics model to facilitate garment manipulation tasks such as hanging. Specifically, we use graphs to represent the interactions between the robot end-effector and the garment. GraphGarment uses a graph neural network (GNN) to learn a dynamics model that can predict the next garment state given the current state and input action in simulation. To address the substantial sim-to-real gap, we propose a residual model that compensates for garment state prediction errors, thereby improving real-world performance. The garment dynamics model is then applied to a model-based action sampling strategy, where it is utilized to manipulate the garment to a reference pre-hanging configuration for garment-hanging tasks. We conducted four experiments using six types of garments to validate our approach in both simulation and real-world settings. In simulation experiments, GraphGarment achieves better garment state prediction performance, with a prediction error 0.46 cm lower than the best baseline. Our approach also demonstrates improved performance in the garment-hanging simulation experiment with enhancements of 12%, 24%, and 10%, respectively. Moreover, real-world robot experiments confirm the robustness of sim-to-real transfer, with an error increase of 0.17 cm compared to simulation results. Supplementary material is available at:https://sites.google.com/view/graphgarment.
- Abstract(参考訳): 衣服の身体的な操作は、衣類の吊り下げなどの織物関連の作業を行う際には、しばしば重要である。
しかし、織物の変形性のため、これらの作業は家庭、医療、産業環境におけるロボットにとって重要な課題である。
本稿では,ロボット制御入力に基づいて衣料動態をモデル化する新しいアプローチであるGraphGarmentを提案し,ハングのような衣料品操作作業を容易にするために学習力学モデルを適用した。
具体的には,ロボットのエンドエフェクタと衣服の相互作用をグラフで表現する。
GraphGarmentはグラフニューラルネットワーク(GNN)を使用して、シミュレーションで現在の状態と入力アクションから次の衣服状態を予測できるダイナミクスモデルを学ぶ。
そこで本研究では,衣服の状態予測誤差を補償する残差モデルを提案する。
次に,服飾動態モデルをモデルに基づくアクションサンプリング戦略に適用し,服飾前処理の基準設定に対する服飾操作に利用する。
我々は6種類の衣服を用いて4つの実験を行い、シミュレーションと実環境の両方において我々のアプローチを検証した。
シミュレーション実験において、GraphGarmentは、最高のベースラインよりも0.46cm低い予測誤差で、より良い衣服状態予測性能を達成する。
また,12%,24%,10%の強化を施した衣料品交換実験における性能向上を実証した。
さらに、実世界のロボット実験は、シミュレーション結果と比較して0.17cmの誤差増加で、sim-to-real転送の堅牢性を確認する。
追加資料は、https://sites.google.com/view/graphgarment.comで入手できる。
関連論文リスト
- Learning 3D Garment Animation from Trajectories of A Piece of Cloth [60.10847645998295]
ガーメントアニメーションは、仮想現実、ゲーム、映画制作など、様々な用途で広く使われている。
観察された衣服の変形を模倣するために、データ駆動法は大規模な衣服データを必要とする。
本稿では,衣服に関する教師あり学習の代わりに,観察された衣服をアニメーションする方法を学ぶために,ゆがみのあるスキームを採用する。
論文 参考訳(メタデータ) (2025-01-02T18:09:42Z) - VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation [79.00294932026266]
VidManは、安定性を高め、データ利用効率を向上させるために、2段階のトレーニングメカニズムを使用する新しいフレームワークである。
我々のフレームワークは、CALVINベンチマークで最先端のベースラインモデルGR-1を上回り、11.7%の相対的な改善を実現し、OXEの小規模データセットで9%以上の精度向上を示す。
論文 参考訳(メタデータ) (2024-11-14T03:13:26Z) - GarmentLab: A Unified Simulation and Benchmark for Garment Manipulation [12.940189262612677]
GarmentLabは、変形可能なオブジェクトと衣料品の操作のために設計された、コンテンツリッチなベンチマークと現実的なシミュレーションである。
私たちのベンチマークには、さまざまな種類の衣料品、ロボットシステム、マニピュレータが含まれています。
これらの課題に対して、最先端のビジョン手法、強化学習、模倣学習アプローチを評価した。
論文 参考訳(メタデータ) (2024-11-02T10:09:08Z) - SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - Motion Guided Deep Dynamic 3D Garments [45.711340917768766]
動作ガイドによるダイナミックな3D衣料、特にゆるい衣料品に焦点をあてる。
データ駆動のセットアップで、我々はまず、可塑性な衣服幾何学の生成空間を学習する。
複数の最先端の代替手段に比較して改善を示す。
論文 参考訳(メタデータ) (2022-09-23T07:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。