論文の概要: Limb-Aware Virtual Try-On Network with Progressive Clothing Warping
- arxiv url: http://arxiv.org/abs/2503.14074v1
- Date: Tue, 18 Mar 2025 09:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:15:54.038137
- Title: Limb-Aware Virtual Try-On Network with Progressive Clothing Warping
- Title(参考訳): プログレッシブ・クロージング・ワープによる肢認識型仮想トライオンネットワーク
- Authors: Shengping Zhang, Xiaoyu Han, Weigang Zhang, Xiangyuan Lan, Hongxun Yao, Qingming Huang,
- Abstract要約: 画像ベースの仮想試着は、ショップ内服の画像を人物画像に転送することを目的としている。
既存のほとんどの方法では、服の反りを直接行うために単一のグローバルな変形が採用されている。
PL-VTONと命名されたLmb-Aware Virtual Try-on Networkを提案する。
- 参考スコア(独自算出の注目度): 64.84181064722084
- License:
- Abstract: Image-based virtual try-on aims to transfer an in-shop clothing image to a person image. Most existing methods adopt a single global deformation to perform clothing warping directly, which lacks fine-grained modeling of in-shop clothing and leads to distorted clothing appearance. In addition, existing methods usually fail to generate limb details well because they are limited by the used clothing-agnostic person representation without referring to the limb textures of the person image. To address these problems, we propose Limb-aware Virtual Try-on Network named PL-VTON, which performs fine-grained clothing warping progressively and generates high-quality try-on results with realistic limb details. Specifically, we present Progressive Clothing Warping (PCW) that explicitly models the location and size of in-shop clothing and utilizes a two-stage alignment strategy to progressively align the in-shop clothing with the human body. Moreover, a novel gravity-aware loss that considers the fit of the person wearing clothing is adopted to better handle the clothing edges. Then, we design Person Parsing Estimator (PPE) with a non-limb target parsing map to semantically divide the person into various regions, which provides structural constraints on the human body and therefore alleviates texture bleeding between clothing and body regions. Finally, we introduce Limb-aware Texture Fusion (LTF) that focuses on generating realistic details in limb regions, where a coarse try-on result is first generated by fusing the warped clothing image with the person image, then limb textures are further fused with the coarse result under limb-aware guidance to refine limb details. Extensive experiments demonstrate that our PL-VTON outperforms the state-of-the-art methods both qualitatively and quantitatively.
- Abstract(参考訳): 画像ベースの仮想試着は、ショップ内服の画像を人物画像に転送することを目的としている。
既存のほとんどの方法は、衣料品のワープを直接行うために単一のグローバルな変形を採用しており、細かな内装のモデリングが欠如しており、歪んだ衣服の外観に繋がる。
また、既存の手法では手足のテクスチャに言及することなく、使用済みの衣服非依存の人物表現によって制限されているため、手足の細部をうまく生成できないことが多い。
これらの問題に対処するため, PL-VTON という仮想試行ネットワークを提案する。
具体的には,PCW(Progressive Clothing Warping)について,着物の位置とサイズを明示的にモデル化し,二段階アライメント戦略を用いて着物と人体を段階的にアライメントする。
また、衣服を身に着けている人のフィットを考慮に入れた新たな重力認識の喪失が、衣服の縁をよりよく扱うために採用されている。
そこで我々は,PPE(Person Parsing Estimator)の設計を行った。PPE(Person Parsing Estimator)は,人体に構造的制約を与え,衣服と身体領域間の食感の出血を軽減する。
最後に,下肢領域における現実的な細部生成に焦点を当てたLmb-aware Texture Fusion (LTF)を導入し,まず,変形した衣服画像と人像とを融合させて粗部試行結果を生成し,さらに下肢のテクスチャを,下肢の細部を精密化するための粗部ガイドの下でさらに融合させる。
PL-VTONは,定性的かつ定量的に,最先端の手法よりも優れていた。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Significance of Anatomical Constraints in Virtual Try-On [3.5002397743250504]
VTONシステムは、所定の衣服の人の試着アウトプットを予測するために、衣服のソースと人の画像を取得する。
既存の方法は、不正確な衣服の変形を発生させることで失敗する。
本稿では,服を個別にワープ可能な部品に分割し,個別にワープし,その後に組み合わせるパートベースのワープ手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T07:43:40Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Significance of Skeleton-based Features in Virtual Try-On [3.7552180803118325]
textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
論文 参考訳(メタデータ) (2022-08-17T05:24:03Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。