論文の概要: Shape-Guided Clothing Warping for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2504.15232v1
- Date: Mon, 21 Apr 2025 17:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:56:32.610226
- Title: Shape-Guided Clothing Warping for Virtual Try-On
- Title(参考訳): 仮想試着用形状ガイド装具ウォーピング
- Authors: Xiaoyu Han, Shunyuan Zheng, Zonglin Li, Chenyang Wang, Xin Sun, Quanling Meng,
- Abstract要約: 画像ベースの仮想試着は、インショップの衣服を人の画像にシームレスにフィットさせることを目的としている。
SCW-VTONと呼ばれる仮想試着のための新しい形状誘導型衣服ワープ手法を提案する。
- 参考スコア(独自算出の注目度): 6.750870148213539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on aims to seamlessly fit in-shop clothing to a person image while maintaining pose consistency. Existing methods commonly employ the thin plate spline (TPS) transformation or appearance flow to deform in-shop clothing for aligning with the person's body. Despite their promising performance, these methods often lack precise control over fine details, leading to inconsistencies in shape between clothing and the person's body as well as distortions in exposed limb regions. To tackle these challenges, we propose a novel shape-guided clothing warping method for virtual try-on, dubbed SCW-VTON, which incorporates global shape constraints and additional limb textures to enhance the realism and consistency of the warped clothing and try-on results. To integrate global shape constraints for clothing warping, we devise a dual-path clothing warping module comprising a shape path and a flow path. The former path captures the clothing shape aligned with the person's body, while the latter path leverages the mapping between the pre- and post-deformation of the clothing shape to guide the estimation of appearance flow. Furthermore, to alleviate distortions in limb regions of try-on results, we integrate detailed limb guidance by developing a limb reconstruction network based on masked image modeling. Through the utilization of SCW-VTON, we are able to generate try-on results with enhanced clothing shape consistency and precise control over details. Extensive experiments demonstrate the superiority of our approach over state-of-the-art methods both qualitatively and quantitatively. The code is available at https://github.com/xyhanHIT/SCW-VTON.
- Abstract(参考訳): 画像ベースの仮想試着は、ポーズの一貫性を維持しながら、人の画像にインショップの衣服をシームレスに適合させることを目的としている。
既存の方法は、通常、薄板スプライン(TPS)変換または外観フローを使用して、人の体に合わせるために、ショップ内服を変形させる。
有望な性能にもかかわらず、これらの手法は細部を正確に制御することができず、衣服と人の身体の形状の不整合や露出した手足の領域の歪みを生じさせる。
これらの課題に対処するために, SCW-VTONと呼ばれる仮想試着のための新しい形状誘導型衣服ワープ手法を提案する。
衣服整形のためのグローバルな形状制約を統合するため,形状経路と流路からなる二重経路整形モジュールを考案した。
前者の経路は、人の体と整合した衣服形状を捉え、後者の経路は、衣服形状の前形と後形の間のマッピングを活用して、外観フローの推定を導く。
さらに,実験結果の四肢領域の歪みを軽減するために,マスク画像モデリングに基づく手足再建ネットワークを構築し,詳細な手足指導を統合する。
SCW-VTONの利用により, 衣服形状の整合性を高め, 細部を正確に制御し, 試着結果を生成することができる。
大規模実験は, 定性的かつ定量的に, 最先端手法に対する我々のアプローチの優位性を実証するものである。
コードはhttps://github.com/xyhanHIT/SCW-VTONで公開されている。
関連論文リスト
- Limb-Aware Virtual Try-On Network with Progressive Clothing Warping [64.84181064722084]
画像ベースの仮想試着は、ショップ内服の画像を人物画像に転送することを目的としている。
既存のほとんどの方法では、服の反りを直接行うために単一のグローバルな変形が採用されている。
PL-VTONと命名されたLmb-Aware Virtual Try-on Networkを提案する。
論文 参考訳(メタデータ) (2025-03-18T09:52:41Z) - Progressive Limb-Aware Virtual Try-On [14.334222729238608]
既存の画像ベースの仮想試着手法は、特定の衣服を直接人間の画像に転送する。
本稿では, PL-VTON という, プログレッシブな仮想試着フレームワークを提案する。
また,肢領域における高品質な細部を推定するための肢認識型テクスチャフュージョンモジュールを提案する。
論文 参考訳(メタデータ) (2025-03-16T17:41:02Z) - GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。