論文の概要: Progressive Limb-Aware Virtual Try-On
- arxiv url: http://arxiv.org/abs/2503.12588v1
- Date: Sun, 16 Mar 2025 17:41:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:53.657360
- Title: Progressive Limb-Aware Virtual Try-On
- Title(参考訳): プログレッシブ・リム・アウェア・バーチャル・トライオン
- Authors: Xiaoyu Han, Shengping Zhang, Qinglin Liu, Zonglin Li, Chenyang Wang,
- Abstract要約: 既存の画像ベースの仮想試着手法は、特定の衣服を直接人間の画像に転送する。
本稿では, PL-VTON という, プログレッシブな仮想試着フレームワークを提案する。
また,肢領域における高品質な細部を推定するための肢認識型テクスチャフュージョンモジュールを提案する。
- 参考スコア(独自算出の注目度): 14.334222729238608
- License:
- Abstract: Existing image-based virtual try-on methods directly transfer specific clothing to a human image without utilizing clothing attributes to refine the transferred clothing geometry and textures, which causes incomplete and blurred clothing appearances. In addition, these methods usually mask the limb textures of the input for the clothing-agnostic person representation, which results in inaccurate predictions for human limb regions (i.e., the exposed arm skin), especially when transforming between long-sleeved and short-sleeved garments. To address these problems, we present a progressive virtual try-on framework, named PL-VTON, which performs pixel-level clothing warping based on multiple attributes of clothing and embeds explicit limb-aware features to generate photo-realistic try-on results. Specifically, we design a Multi-attribute Clothing Warping (MCW) module that adopts a two-stage alignment strategy based on multiple attributes to progressively estimate pixel-level clothing displacements. A Human Parsing Estimator (HPE) is then introduced to semantically divide the person into various regions, which provides structural constraints on the human body and therefore alleviates texture bleeding between clothing and limb regions. Finally, we propose a Limb-aware Texture Fusion (LTF) module to estimate high-quality details in limb regions by fusing textures of the clothing and the human body with the guidance of explicit limb-aware features. Extensive experiments demonstrate that our proposed method outperforms the state-of-the-art virtual try-on methods both qualitatively and quantitatively. The code is available at https://github.com/xyhanHIT/PL-VTON.
- Abstract(参考訳): 既存の画像ベースの仮想試着法では、衣服の属性を使わずに、特定の衣服を直接人間の画像に転送することで、移動した衣服の形状やテクスチャを洗練し、不完全でぼやけた衣服の外観を引き起こす。
さらに、これらの方法は、特に長袖服と短袖服の間を変形する際に、人間の手足領域(例えば、露出した腕の皮膚)の不正確な予測をもたらす衣服非依存者表現の入力の手足のテクスチャを隠蔽する。
これらの問題に対処するために, PL-VTON と呼ばれるプログレッシブな仮想試着フレームワークを提案する。
具体的には,複数属性に基づく2段階アライメント戦略を採用し,画素レベルの衣服変位を段階的に推定するマルチ属性・クロージング・ウォーピング(MCW)モジュールを設計する。
HPE(Human Parsing Estimator)は、人体を様々な領域に意味的に分割するために導入され、人体に構造的な制約を与え、従って衣服と手足の間の食感の出血を軽減する。
最後に,衣服と人体のテクスチャを明示的な手足認識特徴のガイダンスで融合させることにより,手足領域の質の高い詳細を推定するLmb-Aware Texture Fusion (LTF) モジュールを提案する。
実験により,提案手法は,定性的かつ定量的に,最先端の仮想試行法よりも優れていることを示した。
コードはhttps://github.com/xyhanHIT/PL-VTONで公開されている。
関連論文リスト
- IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - VTON-IT: Virtual Try-On using Image Translation [0.0]
我々は,セマンティックセグメンテーションと生成的対向的アーキテクチャに基づく画像翻訳ネットワークを通じて,フォトリアリスティックな翻訳画像を作成しようとする。
本稿では、RGB画像、所望の身体部分のセグメントを抽出し、セグメント化された身体領域にターゲット布をオーバーレイする、新しい画像ベースの仮想トライオンアプリケーションVTON-ITを提案する。
論文 参考訳(メタデータ) (2023-10-06T19:47:20Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。