論文の概要: PT-VTON: an Image-Based Virtual Try-On Network with Progressive Pose
Attention Transfer
- arxiv url: http://arxiv.org/abs/2111.12167v1
- Date: Tue, 23 Nov 2021 21:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 23:08:12.311695
- Title: PT-VTON: an Image-Based Virtual Try-On Network with Progressive Pose
Attention Transfer
- Title(参考訳): PT-VTON:プログレッシブ・ポス・アテンション・トランスファーを用いた画像ベース仮想トライオンネットワーク
- Authors: Hanhan Zhou, Tian Lan, Guru Venkataramani
- Abstract要約: PT-VTONは、任意のポーズで仮想試着を可能にする布の転送のためのポーズ転送ベースのフレームワークである。
PT-VTONは、既存のシステムの最小限の変更でファッション産業に適用することができる。
- 参考スコア(独自算出の注目度): 11.96427084717743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The virtual try-on system has gained great attention due to its potential to
give customers a realistic, personalized product presentation in virtualized
settings. In this paper, we present PT-VTON, a novel pose-transfer-based
framework for cloth transfer that enables virtual try-on with arbitrary poses.
PT-VTON can be applied to the fashion industry within minimal modification of
existing systems while satisfying the overall visual fashionability and
detailed fabric appearance requirements. It enables efficient clothes
transferring between model and user images with arbitrary pose and body shape.
We implement a prototype of PT-VTON and demonstrate that our system can match
or surpass many other approaches when facing a drastic variation of poses by
preserving detailed human and fabric characteristic appearances. PT-VTON is
shown to outperform alternative approaches both on machine-based quantitative
metrics and qualitative results.
- Abstract(参考訳): 仮想トライオンシステムは、仮想設定でリアルでパーソナライズされた製品プレゼンテーションを顧客に提供できる可能性から、大きな注目を集めている。
本稿では,任意のポーズで仮想試着を可能にする,新しいポーズ転送フレームワークPT-VTONを提案する。
PT-VTONは、全体的な視覚的なファッション性と詳細なファブリックの外観要件を満たしつつ、既存のシステムの最小限の修正でファッション産業に適用することができる。
任意のポーズと体型で、モデルとユーザイメージ間の効率的な衣料転送を可能にする。
我々はPT-VTONのプロトタイプを実装し、詳細な人間や織物の特徴的な外観を保ちながら、ポーズの劇的なバリエーションに直面する際に、我々のシステムが他の多くのアプローチに適合または超えることを示した。
PT-VTONは、マシンベースの定量的メトリクスと定性的な結果の両方において、代替手法よりも優れていることが示されている。
関連論文リスト
- Self-Supervised Vision Transformer for Enhanced Virtual Clothes Try-On [21.422611451978863]
本稿では,仮想衣料試着において,自己監督型視覚変換器(ViT)と拡散モデルを用いた革新的なアプローチを提案する。
提案手法は,ViTが生成するローカル衣料品のイメージ埋め込みとグローバルな衣料品との対比により,ディテールの強調を強調する。
実験結果は、仮想試行体験における現実性と詳細の精度の大幅な進歩を示す。
論文 参考訳(メタデータ) (2024-06-15T07:46:22Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - VividPose: Advancing Stable Video Diffusion for Realistic Human Image Animation [79.99551055245071]
時間的安定性を向上するエンドツーエンドパイプラインであるVividPoseを提案する。
識別対応外見制御器は、他の外見の詳細を損なうことなく、追加の顔情報を統合する。
SMPL-Xからの高密度レンダリングマップとスパーススケルトンマップの両方を利用する幾何対応のポーズコントローラ。
VividPoseは、提案したWildデータセットに優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-28T13:18:32Z) - PFDM: Parser-Free Virtual Try-on via Diffusion Model [28.202996582963184]
拡散モデル(PFDM)に基づく自由仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは、他の情報なしで暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
実験により,提案したPFDMは複雑な画像の処理に成功し,最先端の最先端モデルと高忠実度モデルの両方より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-05T14:32:57Z) - FitMe: Deep Photorealistic 3D Morphable Model Avatars [119.03325450951074]
顔の反射率モデルと異なるレンダリングパイプラインであるFitMeを紹介する。
FitMe は、単一の "in-the-wild" 顔画像に対して、最先端のリフレクタンス取得とアイデンティティ保護を実現する。
最近の暗黙のアバター再構成とは対照的に、FitMeはわずか1分で、リライト可能なメッシュとテクスチャベースのアバターを生成する。
論文 参考訳(メタデータ) (2023-05-16T17:42:45Z) - C-VTON: Context-Driven Image-Based Virtual Try-On Network [1.0832844764942349]
本稿では,選択した衣服を対象者に確実に転送するコンテキスト駆動型仮想トライオンネットワーク(C-VTON)を提案する。
C-VTONパイプラインのコアには、(i)入力画像中の人物のポーズに目的の衣服を効率よく整列する幾何マッチング手順と、(ii)最終試行結果に様々な種類の文脈情報を利用する強力な画像生成装置とがある。
論文 参考訳(メタデータ) (2022-12-08T17:56:34Z) - Single Stage Multi-Pose Virtual Try-On [119.95115739956661]
Multi-pose Virtual try-on (MPVTON) は、ターゲットの服をターゲットのポーズで人に合わせることを目的としている。
MPVTONは、より良い試着体験を提供するが、二重の衣服と編集目的のポーズのため、さらに難しい。
既存の方法は、ターゲットセマンティックレイアウト予測モジュール、粗い試行画像生成装置、精細化試行画像生成装置を含む3つの不整合モジュールからなるパイプラインを採用する。
本稿では,TONのための新しい単一ステージモデルを提案する。我々のモデルにとってキーとなるのは,人物と衣服の画像の両方のフロー場を予測する並列フロー推定モジュールである。
論文 参考訳(メタデータ) (2022-11-19T15:02:11Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。