論文の概要: SPnet: Estimating Garment Sewing Patterns from a Single Image
- arxiv url: http://arxiv.org/abs/2312.16264v1
- Date: Tue, 26 Dec 2023 09:51:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 20:17:58.261868
- Title: SPnet: Estimating Garment Sewing Patterns from a Single Image
- Title(参考訳): SPnet: 単一画像からガーメントシードパターンを推定する
- Authors: Seungchan Lim, Sumin Kim, Sung-Hee Lee
- Abstract要約: 本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
- 参考スコア(独自算出の注目度): 10.604555099281173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel method for reconstructing 3D garment models from
a single image of a posed user. Previous studies that have primarily focused on
accurately reconstructing garment geometries to match the input garment image
may often result in unnatural-looking garments when deformed for new poses. To
overcome this limitation, our approach takes a different approach by inferring
the fundamental shape of the garment through sewing patterns from a single
image, rather than directly reconstructing 3D garments. Our method consists of
two stages. Firstly, given a single image of a posed user, it predicts the
garment image worn on a T-pose, representing the baseline form of the garment.
Then, it estimates the sewing pattern parameters based on the T-pose garment
image. By simulating the stitching and draping of the sewing pattern using
physics simulation, we can generate 3D garments that can adaptively deform to
arbitrary poses. The effectiveness of our method is validated through ablation
studies on the major components and a comparison with other approaches.
- Abstract(参考訳): 本稿では,提案したユーザの単一画像から3次元衣料モデルを再構築する手法を提案する。
従来は、入力された衣服のイメージに合うように、衣服のジオメトリーを正確に再構築することに集中していた。
この制限を克服するため,本手法では,3D衣服を直接再構築するのではなく,1枚の画像から縫製パターンを通して衣服の基本形状を推定する。
我々の方法は2つの段階からなる。
第一に、ポーズされたユーザの単一の画像が与えられた場合、服の基幹形態を表すT目的の衣服画像を予測する。
そして、T目的の衣服画像に基づいて、縫製パターンパラメータを推定する。
物理シミュレーションを用いて縫製パターンの縫製・引抜きをシミュレーションすることにより,任意のポーズに適応的に変形可能な3D衣服を作成できる。
本手法の有効性は,主な成分に関するアブレーション研究と他の手法との比較により検証した。
関連論文リスト
- Reconstruction of Manipulated Garment with Guided Deformation Prior [46.225397746681736]
衣服モデルに暗黙的縫製パターン (ISP) モデルを適用し, 形状を表すために拡散に基づく変形を加えることで拡張する。
衣服の折りたたみ時に得られる不完全な3D点雲から3Dの衣服形状を復元するために,その点を事前学習したUV空間にマッピングし,部分的なUVマップを作成し,その前者を適合させて完全なUVマップと2Dから3Dマップを復元する。
論文 参考訳(メタデータ) (2024-05-17T17:39:29Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - DeepIron: Predicting Unwarped Garment Texture from a Single Image [9.427635404752934]
本稿では,1枚の写真から3次元衣料のテクスチャマップを再構築する新しい枠組みを提案する。
私たちのフレームワークのキーコンポーネントであるTexture Unwarperは、入力された衣料品画像から元のテクスチャイメージを推測する。
入力された衣服の本来のテクスチャを推定することにより、新しいポーズのためにリアルに変形した高品質なテクスチャ画像を表示することができる3D衣料モデルの再構築を支援する。
論文 参考訳(メタデータ) (2023-10-24T01:44:11Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。