論文の概要: Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On
- arxiv url: http://arxiv.org/abs/2210.00918v1
- Date: Mon, 3 Oct 2022 13:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:51:44.600810
- Title: Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On
- Title(参考訳): fill in fabrics: イメージベースの仮想トライオンのためのボディアウェア自己教師付きインペインティング
- Authors: H. Zunair, Y. Gobeil, S. Mercier, and A. Ben Hamza
- Abstract要約: 本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
- 参考スコア(独自算出の注目度): 3.5698678013121334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Previous virtual try-on methods usually focus on aligning a clothing item
with a person, limiting their ability to exploit the complex pose, shape and
skin color of the person, as well as the overall structure of the clothing,
which is vital to photo-realistic virtual try-on. To address this potential
weakness, we propose a fill in fabrics (FIFA) model, a self-supervised
conditional generative adversarial network based framework comprised of a
Fabricator and a unified virtual try-on pipeline with a Segmenter, Warper and
Fuser. The Fabricator aims to reconstruct the clothing image when provided with
a masked clothing as input, and learns the overall structure of the clothing by
filling in fabrics. A virtual try-on pipeline is then trained by transferring
the learned representations from the Fabricator to Warper in an effort to warp
and refine the target clothing. We also propose to use a multi-scale structural
constraint to enforce global context at multiple scales while warping the
target clothing to better fit the pose and shape of the person. Extensive
experiments demonstrate that our FIFA model achieves state-of-the-art results
on the standard VITON dataset for virtual try-on of clothing items, and is
shown to be effective at handling complex poses and retaining the texture and
embroidery of the clothing.
- Abstract(参考訳): 従来の仮想試行方法は、通常、衣服のアイテムを人と整合させることに焦点を合わせ、人の複雑なポーズ、形、肌の色を活用できる能力と、フォトリアリスティックなバーチャル試行に不可欠な衣服全体の構造を制限している。
このような潜在的な弱点に対処するために,FabricatorとSegmenter, Warper, Fuserを組み合わせた仮想試行パイプラインで構成される,自己教師型条件生成型ネットワークベースのフレームワークであるFabrics(FIFA)モデルを提案する。
マスクを施した衣服を入力として衣服イメージを再構成し、生地を充填して衣料全体の構造を学習することを目的とする。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
また,複数の規模でグローバルな文脈を強制する上で,目的の衣服を乱して人のポーズや形状をよりよく適合させるため,マルチスケール構造制約を提案する。
我々のFIFAモデルは,服飾品の仮想試着のための標準VITONデータセットの最先端化を実現し,複雑なポーズの処理や衣服のテクスチャや刺青の保持に有効であることが実証された。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Garment Avatars: Realistic Cloth Driving using Pattern Registration [39.936812232884954]
衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-07T15:06:55Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。