論文の概要: SizeGAN: Improving Size Representation in Clothing Catalogs
- arxiv url: http://arxiv.org/abs/2211.02892v2
- Date: Mon, 26 Jun 2023 18:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 17:56:55.936554
- Title: SizeGAN: Improving Size Representation in Clothing Catalogs
- Title(参考訳): SizeGAN: 衣服カタログにおけるサイズ表現の改善
- Authors: Kathleen M. Lewis and John Guttag
- Abstract要約: 本稿では,新しいターゲットサイズで衣服の画像を生成する手法を提案する。
我々の主な技術的貢献は、複数の解像度で変形場を学習し、モデルや衣服のサイズを現実的に変化させる条件生成対向ネットワークである。
我々の2つのユーザー調査の結果、SizeGANは現実主義、衣服の忠実さ、サイズという3つの側面で代替手法よりも優れています。
- 参考スコア(独自算出の注目度): 2.9008108937701333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online clothing catalogs lack diversity in body shape and garment size.
Brands commonly display their garments on models of one or two sizes, rarely
including plus-size models. To our knowledge, our paper presents the first
method for generating images of garments and models in a new target size to
tackle the size under-representation problem. Our primary technical
contribution is a conditional generative adversarial network that learns
deformation fields at multiple resolutions to realistically change the size of
models and garments. Results from our two user studies show SizeGAN outperforms
alternative methods along three dimensions -- realism, garment faithfulness,
and size -- which are all important for real world use.
- Abstract(参考訳): オンライン衣料品カタログには、体型や衣服の大きさの多様性がない。
ブランドは通常、プラスサイズモデルを含む1つか2つのサイズのモデルに衣服を展示する。
そこで本研究では,新しい対象サイズで衣服やモデルの画像を生成する最初の方法を提案する。
我々の主な技術的貢献は、複数の解像度で変形場を学習し、モデルや衣服のサイズを現実的に変化させる条件生成対向ネットワークである。
この2つのユーザ調査の結果から,3次元 – リアリズム,服飾忠実性,サイズ – に沿って,サイズガンが代替手法を上回っていることが分かりました。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - FitGAN: Fit- and Shape-Realistic Generative Adversarial Networks for
Fashion [5.478764356647437]
本稿では,衣料の絡み合ったサイズと適合特性を考慮に入れた生成的敵モデルFitGANを提案する。
本モデルでは, ファッション記事の真の適合性や形状を反映したリアルな画像を生成する。
論文 参考訳(メタデータ) (2022-06-23T15:10:28Z) - NeuralTailor: Reconstructing Sewing Pattern Structures from 3D Point
Clouds of Garments [7.331799534004012]
そこで本論文では,本質的な衣服形状推定を容易にするために,衣服縫いパターンを提案する。
可変基数を持つ集合回帰に対する点レベルの注意に基づく新しいアーキテクチャであるNeuralTailorを紹介する。
実験の結果,NeuralTailorは縫製パターンの再構築に成功し,トレーニング中に見つからないパターントポロジを持つ衣服タイプに一般化した。
論文 参考訳(メタデータ) (2022-01-31T08:33:49Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z) - SIZER: A Dataset and Model for Parsing 3D Clothing and Learning Size
Sensitive 3D Clothing [50.63492603374867]
SizerNetを導入し、人体形状と衣服サイズパラメータに基づいて3D衣服を予測する。
また、入力メッシュから1パスの個人的詳細を持つ衣服の下で、衣服のメッシュと形状を推測するためにNetを導入する。
論文 参考訳(メタデータ) (2020-07-22T18:13:24Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。