論文の概要: GarmentPile: Point-Level Visual Affordance Guided Retrieval and Adaptation for Cluttered Garments Manipulation
- arxiv url: http://arxiv.org/abs/2503.09243v1
- Date: Wed, 12 Mar 2025 10:39:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:38:43.901297
- Title: GarmentPile: Point-Level Visual Affordance Guided Retrieval and Adaptation for Cluttered Garments Manipulation
- Title(参考訳): GarmentPile: グッズ操作のための検索と適応のためのポイントレベルビジュアルアフォーダンスガイド
- Authors: Ruihai Wu, Ziyu Zhu, Yuran Wang, Yue Chen, Jiarui Wang, Hao Dong,
- Abstract要約: 単衣の操作とは異なり、散らかったシナリオは複雑な衣服の絡み合いと相互作用を管理する必要がある。
我々は、点レベルの可測性、複素空間をモデル化した密度表現、およびマルチモーダルな操作候補を学習する。
本研究では,高度に絡み合った衣服を操作可能な状態に再構成するための適応モジュールを提案する。
- 参考スコア(独自算出の注目度): 14.604134812602044
- License:
- Abstract: Cluttered garments manipulation poses significant challenges due to the complex, deformable nature of garments and intricate garment relations. Unlike single-garment manipulation, cluttered scenarios require managing complex garment entanglements and interactions, while maintaining garment cleanliness and manipulation stability. To address these demands, we propose to learn point-level affordance, the dense representation modeling the complex space and multi-modal manipulation candidates, while being aware of garment geometry, structure, and inter-object relations. Additionally, as it is difficult to directly retrieve a garment in some extremely entangled clutters, we introduce an adaptation module, guided by learned affordance, to reorganize highly-entangled garments into states plausible for manipulation. Our framework demonstrates effectiveness over environments featuring diverse garment types and pile configurations in both simulation and the real world. Project page: https://garmentpile.github.io/.
- Abstract(参考訳): 乱れた衣服の操作は、衣服の複雑で変形可能な性質と複雑な衣服の関係のために大きな課題を生んでいる。
単衣の操作とは異なり、散らかったシナリオは複雑な衣服の絡み合いと相互作用を管理し、衣服の清潔さと操作安定性を維持する必要がある。
これらの要求に対処するために,我々は,空間や多モーダルな操作候補をモデル化した高密度な表現を,幾何学的,構造的,オブジェクト間関係を意識しながら,ポイントレベル・アベイランス(point-level affordance)を学習することを提案する。
また, 極めて絡み合った布地で衣服を直接回収することは困難であるため, 高絡み合いの衣服を操作可能な状態に再構成するための適応モジュールを導入する。
本フレームワークは,シミュレーションと実環境の両方において,多様な衣服タイプと杭構成を特徴とする環境に対する有効性を示す。
プロジェクトページ: https://garmentpile.github.io/.com
関連論文リスト
- AnyDressing: Customizable Multi-Garment Virtual Dressing via Latent Diffusion Models [7.534556848810697]
衣服とパーソナライズされたテキストプロンプトの組み合わせで条件付き文字をカスタマイズする新しいAnyDressing法を提案する。
AnyDressingはGarmentsNetとDressingNetという2つの主要なネットワークで構成されており、それぞれが詳細な衣料品の特徴を抽出することを目的としている。
衣服のきめ細かいテクスチャの詳細を改善するため,ガーメント強化テクスチャ学習戦略を導入する。
論文 参考訳(メタデータ) (2024-12-05T13:16:47Z) - UniGarmentManip: A Unified Framework for Category-Level Garment Manipulation via Dense Visual Correspondence [6.9061350009929185]
ガーメント操作は、将来のロボットがホームアシストタスクを達成するために不可欠である。
我々は、あるカテゴリーの衣服が類似した構造を持つ性質を活用している。
次に, カテゴリーレベルでの衣服間のトポロジカルな(点レベルの)視覚的対応を異なる変形で学習する。
論文 参考訳(メタデータ) (2024-05-11T04:18:41Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - ClothCombo: Modeling Inter-Cloth Interaction for Draping Multi-Layered
Clothes [3.8079353598215757]
人間の3次元モデルに任意の服の組み合わせを描画するパイプラインであるClathComboを提示する。
本手法は,GNNに基づくネットワークを用いて,異なる階層の衣服間の相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2023-04-07T06:23:54Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。