論文の概要: Towards Garment Sewing Pattern Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2311.04218v1
- Date: Tue, 7 Nov 2023 18:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 14:22:38.424661
- Title: Towards Garment Sewing Pattern Reconstruction from a Single Image
- Title(参考訳): 単一画像からの衣服縫製パターンの再構築に向けて
- Authors: Lijuan Liu, Xiangyu Xu, Zhijie Lin, Jiabin Liang, Shuicheng Yan
- Abstract要約: ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
- 参考スコア(独自算出の注目度): 76.97825595711444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Garment sewing pattern represents the intrinsic rest shape of a garment, and
is the core for many applications like fashion design, virtual try-on, and
digital avatars. In this work, we explore the challenging problem of recovering
garment sewing patterns from daily photos for augmenting these applications. To
solve the problem, we first synthesize a versatile dataset, named SewFactory,
which consists of around 1M images and ground-truth sewing patterns for model
training and quantitative evaluation. SewFactory covers a wide range of human
poses, body shapes, and sewing patterns, and possesses realistic appearances
thanks to the proposed human texture synthesis network. Then, we propose a
two-level Transformer network called Sewformer, which significantly improves
the sewing pattern prediction performance. Extensive experiments demonstrate
that the proposed framework is effective in recovering sewing patterns and well
generalizes to casually-taken human photos. Code, dataset, and pre-trained
models are available at: https://sewformer.github.io.
- Abstract(参考訳): ガーメント縫製パターンは衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターなどの多くの応用のコアとなっている。
本研究は, 日常写真から衣服の縫製パターンを復元し, 補修する際の課題について考察する。
そこで本研究では,まず,モデルトレーニングと定量的評価のために,約1m画像と地中縫製パターンからなる多彩なデータセットswerfactoryを合成する。
SewFactoryは、さまざまな人間のポーズ、体形、縫製パターンをカバーし、提案された人間のテクスチャ合成ネットワークのおかげで現実的な外観を持つ。
次に,縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
広範な実験により,提案手法は縫製パターンの回復に有効であり,カジュアルに撮影されたヒト写真によく一般化できることが示されている。
コード、データセット、事前トレーニングされたモデルは以下の通りである。
関連論文リスト
- Controllable Human Image Generation with Personalized Multi-Garments [46.042383679103125]
BootCompは、テキストから画像への拡散モデルに基づく新しいフレームワークである。
本研究では,ヒトとマルチガーメントのペアからなる大規模な合成データセットを構築するためのデータ生成パイプラインを提案する。
ファッションドメインにおいて、異なるタイプの参照ベース生成に適応することで、フレームワークの幅広い適用性を示す。
論文 参考訳(メタデータ) (2024-11-25T12:37:13Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。