論文の概要: GarmentTracking: Category-Level Garment Pose Tracking
- arxiv url: http://arxiv.org/abs/2303.13913v1
- Date: Fri, 24 Mar 2023 10:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:58:43.375062
- Title: GarmentTracking: Category-Level Garment Pose Tracking
- Title(参考訳): GarmentTracking:カテゴリーレベルのガーメントポッドトラッキング
- Authors: Han Xue, Wenqiang Xu, Jieyi Zhang, Tutian Tang, Yutong Li, Wenxin Du,
Ruolin Ye, Cewu Lu
- Abstract要約: カテゴリーレベルのポーズトラッキングタスクに対処するための完全なパッケージを提示する。
仮想衣料モデルをVRインターフェースを通じてシミュレーションで操作できる、記録システムVR-Garment。
大規模なデータセットであるVR-Foldingは、フラット化や折りたたみのような操作で複雑な服装が設定される。
エンドツーエンドのオンライントラッキングフレームワークであるGarmentTrackingは、標準的な空間と、ポイントクラウドシーケンスが与えられたタスク空間の両方で、完全な衣服のポーズを予測する。
- 参考スコア(独自算出の注目度): 36.58359952084771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Garments are important to humans. A visual system that can estimate and track
the complete garment pose can be useful for many downstream tasks and
real-world applications. In this work, we present a complete package to address
the category-level garment pose tracking task: (1) A recording system
VR-Garment, with which users can manipulate virtual garment models in
simulation through a VR interface. (2) A large-scale dataset VR-Folding, with
complex garment pose configurations in manipulation like flattening and
folding. (3) An end-to-end online tracking framework GarmentTracking, which
predicts complete garment pose both in canonical space and task space given a
point cloud sequence. Extensive experiments demonstrate that the proposed
GarmentTracking achieves great performance even when the garment has large
non-rigid deformation. It outperforms the baseline approach on both speed and
accuracy. We hope our proposed solution can serve as a platform for future
research. Codes and datasets are available in
https://garment-tracking.robotflow.ai.
- Abstract(参考訳): 衣服は人間にとって重要である。
完全な衣服のポーズを推定し追跡できる視覚システムは、多くの下流タスクや現実世界のアプリケーションに有用である。
本研究は,(1)VRインタフェースを通じて仮想衣料品モデルを操作することができるVR-Garmentを収録した,カテゴリーレベルの衣料品ポーズ追跡タスクに対処するための完全なパッケージを提案する。
2) フラット化や折りたたみなどの操作において, 複雑な衣料を施した大規模データセットVRフォールディング。
(3) エンド・ツー・エンドのオンライントラッキングフレームワークであるGarmentTrackingは、ポイントクラウドシーケンスを与えられた標準空間とタスク空間の両方で、完全な衣服のポーズを予測する。
広汎な実験により, 衣服の非剛性変形が大きい場合でも, 提案したGarmentTrackingは優れた性能を発揮することが示された。
速度と精度の両方でベースラインアプローチより優れている。
提案されたソリューションが将来の研究のプラットフォームになることを期待しています。
コードとデータセットはhttps://garment-tracking.robotflow.aiで利用可能である。
関連論文リスト
- Gaussian Garments: Reconstructing Simulation-Ready Clothing with Photorealistic Appearance from Multi-View Video [66.98046635045685]
マルチビュー映像からリアルなシミュレーション可能な衣服資産を再構築するための新しい手法を提案する。
本手法は,3次元メッシュとガウステクスチャを組み合わせた衣服を表現し,その色と高周波表面の細部をエンコードする。
この表現は、マルチビュービデオへの衣服のジオメトリの正確な登録を可能にし、照明効果からアルベドのテクスチャを遠ざけるのに役立つ。
論文 参考訳(メタデータ) (2024-09-12T16:26:47Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - UmeTrack: Unified multi-view end-to-end hand tracking for VR [34.352638006495326]
空間における3Dハンドポーズのリアルタイム追跡は難しい問題であり、VRインタラクションにおいて重要な役割を果たす。
本稿では,世界空間における3Dハンドポーズを直接予測する多視点多フレームハンドトラッキングのための,エンドツーエンドの識別可能な統合フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:09:21Z) - Motion Guided Deep Dynamic 3D Garments [45.711340917768766]
動作ガイドによるダイナミックな3D衣料、特にゆるい衣料品に焦点をあてる。
データ駆動のセットアップで、我々はまず、可塑性な衣服幾何学の生成空間を学習する。
複数の最先端の代替手段に比較して改善を示す。
論文 参考訳(メタデータ) (2022-09-23T07:17:46Z) - Garment Avatars: Realistic Cloth Driving using Pattern Registration [39.936812232884954]
衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-07T15:06:55Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - GarmentNets: Category-Level Pose Estimation for Garments via Canonical
Space Shape Completion [24.964867275360263]
GarmentNetsは、標準空間における形状完了タスクとして変形可能なオブジェクトポーズ推定問題である。
出力表現は、per-vertex canonical coordinate labelを持つ完全な3dメッシュを使用して、衣服の完全な構成を記述する。
実験によると、GarmentNetsは、目に見えない服のインスタンスに一般化でき、代替のアプローチに比べて大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2021-04-12T03:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。