論文の概要: FitGAN: Fit- and Shape-Realistic Generative Adversarial Networks for
Fashion
- arxiv url: http://arxiv.org/abs/2206.11768v1
- Date: Thu, 23 Jun 2022 15:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 13:36:12.408921
- Title: FitGAN: Fit- and Shape-Realistic Generative Adversarial Networks for
Fashion
- Title(参考訳): FitGAN:ファッションのためのフィット・リレーショナル・ジェネレーション・ネットワーク
- Authors: Sonia Pecenakova, Nour Karessli, Reza Shirvany
- Abstract要約: 本稿では,衣料の絡み合ったサイズと適合特性を考慮に入れた生成的敵モデルFitGANを提案する。
本モデルでは, ファッション記事の真の適合性や形状を反映したリアルな画像を生成する。
- 参考スコア(独自算出の注目度): 5.478764356647437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amidst the rapid growth of fashion e-commerce, remote fitting of fashion
articles remains a complex and challenging problem and a main driver of
customers' frustration. Despite the recent advances in 3D virtual try-on
solutions, such approaches still remain limited to a very narrow - if not only
a handful - selection of articles, and often for only one size of those fashion
items. Other state-of-the-art approaches that aim to support customers find
what fits them online mostly require a high level of customer engagement and
privacy-sensitive data (such as height, weight, age, gender, belly shape,
etc.), or alternatively need images of customers' bodies in tight clothing.
They also often lack the ability to produce fit and shape aware visual guidance
at scale, coming up short by simply advising which size to order that would
best match a customer's physical body attributes, without providing any
information on how the garment may fit and look. Contributing towards taking a
leap forward and surpassing the limitations of current approaches, we present
FitGAN, a generative adversarial model that explicitly accounts for garments'
entangled size and fit characteristics of online fashion at scale. Conditioned
on the fit and shape of the articles, our model learns disentangled item
representations and generates realistic images reflecting the true fit and
shape properties of fashion articles. Through experiments on real world data at
scale, we demonstrate how our approach is capable of synthesizing visually
realistic and diverse fits of fashion items and explore its ability to control
fit and shape of images for thousands of online garments.
- Abstract(参考訳): ファッションeコマースの急速な成長の中で、ファッション商品のリモートフィッティングは複雑で困難な問題であり、顧客のフラストレーションの主な要因である。
3Dバーチャルトライオンソリューションの最近の進歩にもかかわらず、そのようなアプローチは依然として、記事の選択に限らず、そのファッションアイテムのたった1つのサイズに限られている。
顧客がオンラインにフィットするものを見つけるのを支援する他の最先端のアプローチは、主に高いレベルの顧客エンゲージメントとプライバシーに敏感なデータ(身長、体重、年齢、性別、腹の形など)を必要とするか、あるいはタイトな服装で顧客の身体の画像を必要とする。
また、サイズが顧客の身体的属性に最もよく合致する順に指示するだけで、衣服のフィットや見た目に関する情報を一切提供せずに、縮尺や形状を意識した視覚的なガイダンスを大規模に作成する能力が欠如していることも少なくない。
本稿では,現在のアプローチの限界を乗り越えるために,衣服の絡み合ったサイズと大規模オンラインファッションの特徴を明示的に考慮した,生成的敵意モデルであるfitganを提案する。
論文の適合性と形状を条件として,不連続な項目表現を学習し,ファッション記事の真の適合性と形状特性を反映した現実的な画像を生成する。
実世界の大規模データに関する実験を通じて,我々のアプローチは,ファッションアイテムの視覚的かつ多彩な適合を視覚的に合成し,数千のオンライン衣料品に対する画像の適合性と形状を制御できることを実証する。
関連論文リスト
- AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - DL-EWF: Deep Learning Empowering Women's Fashion with Grounded-Segment-Anything Segmentation for Body Shape Classification [0.0]
ファッション業界で最も厳しい課題の1つは、体型と購入した個人の衣服のミスマッチである。
人体形状を決定する従来の方法は、その正確性、高いコスト、時間のかかる性質のために制限されている。
デジタルイメージングとディープニューラルネットワーク(DNN)を利用した新しいアプローチが導入された。
論文 参考訳(メタデータ) (2024-04-07T09:17:00Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce [57.876602177247534]
スマートフォンは、ユーザーが自分の身体の画像をキャプチャする便利な手段を提供する。
我々は、PointRendでSemantic FPNを単純化することで、新しいセグメンテーションモデルを作成する。
我々は、このモデルを、私たちのアプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整する。
論文 参考訳(メタデータ) (2023-04-15T11:06:32Z) - SizeGAN: Improving Size Representation in Clothing Catalogs [2.9008108937701333]
本稿では,新しいターゲットサイズで衣服の画像を生成する手法を提案する。
我々の主な技術的貢献は、複数の解像度で変形場を学習し、モデルや衣服のサイズを現実的に変化させる条件生成対向ネットワークである。
我々の2つのユーザー調査の結果、SizeGANは現実主義、衣服の忠実さ、サイズという3つの側面で代替手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-05T12:20:01Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - SizeFlags: Reducing Size and Fit Related Returns in Fashion E-Commerce [3.324876873771105]
SizeFlagsは、顧客からの弱い注釈付き大規模データに基づく確率ベイズモデルである。
提案手法が14か国にわたるオンラインファッションにおけるサイズ関連リターンを減少させる上での強い影響を実証する。
論文 参考訳(メタデータ) (2021-06-07T11:43:40Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。