論文の概要: GarmentNets: Category-Level Pose Estimation for Garments via Canonical
Space Shape Completion
- arxiv url: http://arxiv.org/abs/2104.05177v1
- Date: Mon, 12 Apr 2021 03:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:25:12.668866
- Title: GarmentNets: Category-Level Pose Estimation for Garments via Canonical
Space Shape Completion
- Title(参考訳): GarmentNets:Caegory-Level Pose Estimation for Garments via Canonical Space Shape Completion
- Authors: Cheng Chi and Shuran Song
- Abstract要約: GarmentNetsは、標準空間における形状完了タスクとして変形可能なオブジェクトポーズ推定問題である。
出力表現は、per-vertex canonical coordinate labelを持つ完全な3dメッシュを使用して、衣服の完全な構成を記述する。
実験によると、GarmentNetsは、目に見えない服のインスタンスに一般化でき、代替のアプローチに比べて大幅にパフォーマンスが向上している。
- 参考スコア(独自算出の注目度): 24.964867275360263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper tackles the task of category-level pose estimation for garments.
With a near infinite degree of freedom, a garment's full configuration (i.e.,
poses) is often described by the per-vertex 3D locations of its entire 3D
surface. However, garments are also commonly subject to extreme cases of
self-occlusion, especially when folded or crumpled, making it challenging to
perceive their full 3D surface. To address these challenges, we propose
GarmentNets, where the key idea is to formulate the deformable object pose
estimation problem as a shape completion task in the canonical space. This
canonical space is defined across garments instances within a category,
therefore, specifies the shared category-level pose. By mapping the observed
partial surface to the canonical space and completing it in this space, the
output representation describes the garment's full configuration using a
complete 3D mesh with the per-vertex canonical coordinate label. To properly
handle the thin 3D structure presented on garments, we proposed a novel 3D
shape representation using the generalized winding number field. Experiments
demonstrate that GarmentNets is able to generalize to unseen garment instances
and achieve significantly better performance compared to alternative
approaches.
- Abstract(参考訳): 本稿では,衣服のカテゴリーレベルのポーズ推定の課題に取り組む。
ほぼ無限の自由度で、衣服の完全な構成(ポーズ)は、しばしばその3次元表面全体の頂点あたりの3D位置によって記述される。
しかし、衣服は、特に折りたたみや折りたたみの際には、極端に排他的であり、完全な3D表面を知覚することは困難である。
そこで本研究では,変形可能な物体ポーズ推定問題を正準空間における形状完了タスクとして定式化することを目的とする。
この正準空間は、カテゴリ内の衣服のインスタンス間で定義されるので、共有されたカテゴリレベルのポーズを規定する。
観察された部分表面を標準空間にマッピングし、この空間で完了させることで、出力表現は、頂点ごとの標準座標ラベルを持つ完全な3Dメッシュを使用して、衣服の完全な構成を記述する。
衣服の薄い3d構造を適切に扱うために,一般化された巻数場を用いた新しい3d形状表現を提案した。
実験によると、GarmentNetsは、目に見えない服のインスタンスに一般化でき、代替のアプローチに比べて大幅にパフォーマンスが向上している。
関連論文リスト
- FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - ISP: Multi-Layered Garment Draping with Implicit Sewing Patterns [57.176642106425895]
本稿では,現在のアプローチの限界に対処する衣服表現モデルを提案する。
これは、純粋に暗黙的な表面表現よりも高速で高品質な再構成をもたらす。
個々の2Dパネルを編集することで、衣服の形状やテクスチャを素早く編集できる。
論文 参考訳(メタデータ) (2023-05-23T14:23:48Z) - GarmentTracking: Category-Level Garment Pose Tracking [36.58359952084771]
カテゴリーレベルのポーズトラッキングタスクに対処するための完全なパッケージを提示する。
仮想衣料モデルをVRインターフェースを通じてシミュレーションで操作できる、記録システムVR-Garment。
大規模なデータセットであるVR-Foldingは、フラット化や折りたたみのような操作で複雑な服装が設定される。
エンドツーエンドのオンライントラッキングフレームワークであるGarmentTrackingは、標準的な空間と、ポイントクラウドシーケンスが与えられたタスク空間の両方で、完全な衣服のポーズを予測する。
論文 参考訳(メタデータ) (2023-03-24T10:59:17Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Generating Datasets of 3D Garments with Sewing Patterns [10.729374293332281]
縫製パターンを用いた3D衣料モデルの大規模な合成データセットを作成した。
データセットには、19の異なるベースタイプから生成される20000以上の衣料デザインのバリエーションが含まれている。
論文 参考訳(メタデータ) (2021-09-12T23:03:48Z) - Learning Anchored Unsigned Distance Functions with Gradient Direction
Alignment for Single-view Garment Reconstruction [92.23666036481399]
本稿では,1枚の画像から3次元衣料品を復元するための,学習可能なアンコレットアンサイン距離関数 (AnchorUDF) 表現を提案する。
AnchorUDFは符号のない距離場(UDF)を予測して3次元形状を表現し、任意の解像度でオープンな衣服表面モデリングを可能にする。
論文 参考訳(メタデータ) (2021-08-19T03:45:38Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。