論文の概要: LGVTON: A Landmark Guided Approach to Virtual Try-On
- arxiv url: http://arxiv.org/abs/2004.00562v2
- Date: Wed, 29 Sep 2021 05:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:14:48.618528
- Title: LGVTON: A Landmark Guided Approach to Virtual Try-On
- Title(参考訳): lgvton:仮想トライオンへのランドマークガイドアプローチ
- Authors: Debapriya Roy, Sanchayan Santra, and Bhabatosh Chanda
- Abstract要約: 人物とモデルという2人のイメージから、モデルの服を着ている人の再考を生成する。
これは、ほとんどのeコマースウェブサイトでは、服のみのイメージが通常利用できないという事実を考えると便利である。
- 参考スコア(独自算出の注目度): 4.617329011921226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a Landmark Guided Virtual Try-On (LGVTON) method
for clothes, which aims to solve the problem of clothing trials on e-commerce
websites. Given the images of two people: a person and a model, it generates a
rendition of the person wearing the clothes of the model. This is useful
considering the fact that on most e-commerce websites images of only clothes
are not usually available. We follow a three-stage approach to achieve our
objective. In the first stage, LGVTON warps the clothes of the model using a
Thin-Plate Spline (TPS) based transformation to fit the person. Unlike previous
TPS-based methods, we use the landmarks (of human and clothes) to compute the
TPS transformation. This enables the warping to work independently of the
complex patterns, such as stripes, florals, and textures, present on the
clothes. However, this computed warp may not always be very precise. We,
therefore, further refine it in the subsequent stages with the help of a mask
generator (Stage 2) and an image synthesizer (Stage 3) modules. The mask
generator improves the fit of the warped clothes, and the image synthesizer
ensures a realistic output. To tackle the problem of lack of paired training
data, we resort to a self-supervised training strategy. Here paired data refers
to the image pair of model and person wearing the same cloth. We compare LGVTON
with four existing methods on two popular fashion datasets namely MPV and
DeepFashion using two performance measures, FID (Fr\'echet Inception Distance)
and SSIM (Structural Similarity Index). The proposed method in most cases
outperforms the state-of-the-art methods.
- Abstract(参考訳): 本稿では,電子商取引サイトにおける衣料試行の課題を解決することを目的とした,衣料品のランドマークガイド仮想試行法(LGVTON)を提案する。
人物とモデルという2人のイメージから、モデルの服を着ている人のレンドレーションを生成する。
これは、ほとんどのeコマースウェブサイトでは、服のみのイメージが通常利用できないという事実を考えると便利である。
私たちは目的を達成するために3段階のアプローチに従います。
第一段階では、LGVTONはThin-Plate Spline (TPS)ベースのトランスフォーメーションを使用してモデルの服をワープして人物に適合させる。
従来のTPSベースの手法とは異なり、私たちはTPS変換を計算するために(人間と衣服の)ランドマークを使用します。
これにより、衣服に現れるストライプ、花柄、テクスチャなどの複雑なパターンとは独立して、ワーピングが機能することを可能にする。
しかし、この計算されたワープは必ずしも正確とは限らない。
したがって、マスク発生装置(ステージ)の助けを借りて、その後の段階においてさらに精製する。
2)画像合成装置(ステップ)
3)モジュール。
マスクジェネレータは、歪んだ衣服のフィットを改善し、画像合成装置は、現実的な出力を確保する。
ペアトレーニングデータの欠如に対処するために,我々は,自己指導型トレーニング戦略を採用する。
ここでペア化されたデータは、同じ布を着たモデルと人のイメージペアを指す。
本稿では,FID(Fr\echet Inception Distance)とSSIM(Structural similarity Index)の2つの評価指標を用いて,LGVTONとMPVとDeepFashionという2つの人気ファッションデータセット上の4つの既存手法を比較した。
提案手法は,ほとんどの場合,最先端手法よりも優れている。
関連論文リスト
- High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Significance of Anatomical Constraints in Virtual Try-On [3.5002397743250504]
VTONシステムは、所定の衣服の人の試着アウトプットを予測するために、衣服のソースと人の画像を取得する。
既存の方法は、不正確な衣服の変形を発生させることで失敗する。
本稿では,服を個別にワープ可能な部品に分割し,個別にワープし,その後に組み合わせるパートベースのワープ手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T07:43:40Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - ECON: Explicit Clothed humans Optimized via Normal integration [54.51948104460489]
ゆるい衣服で3D人間を作る方法であるECONについて述べる。
布を被った人の正面と後方の詳細な2Dマップを推測する。
d-BiNI曲面の間の欠測幾何を「塗装」する。
論文 参考訳(メタデータ) (2022-12-14T18:59:19Z) - Significance of Skeleton-based Features in Virtual Try-On [3.7552180803118325]
textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
論文 参考訳(メタデータ) (2022-08-17T05:24:03Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。