論文の概要: PT-VTON: an Image-Based Virtual Try-On Network with Progressive Pose
Attention Transfer
- arxiv url: http://arxiv.org/abs/2111.12167v1
- Date: Tue, 23 Nov 2021 21:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 23:08:12.311695
- Title: PT-VTON: an Image-Based Virtual Try-On Network with Progressive Pose
Attention Transfer
- Title(参考訳): PT-VTON:プログレッシブ・ポス・アテンション・トランスファーを用いた画像ベース仮想トライオンネットワーク
- Authors: Hanhan Zhou, Tian Lan, Guru Venkataramani
- Abstract要約: PT-VTONは、任意のポーズで仮想試着を可能にする布の転送のためのポーズ転送ベースのフレームワークである。
PT-VTONは、既存のシステムの最小限の変更でファッション産業に適用することができる。
- 参考スコア(独自算出の注目度): 11.96427084717743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The virtual try-on system has gained great attention due to its potential to
give customers a realistic, personalized product presentation in virtualized
settings. In this paper, we present PT-VTON, a novel pose-transfer-based
framework for cloth transfer that enables virtual try-on with arbitrary poses.
PT-VTON can be applied to the fashion industry within minimal modification of
existing systems while satisfying the overall visual fashionability and
detailed fabric appearance requirements. It enables efficient clothes
transferring between model and user images with arbitrary pose and body shape.
We implement a prototype of PT-VTON and demonstrate that our system can match
or surpass many other approaches when facing a drastic variation of poses by
preserving detailed human and fabric characteristic appearances. PT-VTON is
shown to outperform alternative approaches both on machine-based quantitative
metrics and qualitative results.
- Abstract(参考訳): 仮想トライオンシステムは、仮想設定でリアルでパーソナライズされた製品プレゼンテーションを顧客に提供できる可能性から、大きな注目を集めている。
本稿では,任意のポーズで仮想試着を可能にする,新しいポーズ転送フレームワークPT-VTONを提案する。
PT-VTONは、全体的な視覚的なファッション性と詳細なファブリックの外観要件を満たしつつ、既存のシステムの最小限の修正でファッション産業に適用することができる。
任意のポーズと体型で、モデルとユーザイメージ間の効率的な衣料転送を可能にする。
我々はPT-VTONのプロトタイプを実装し、詳細な人間や織物の特徴的な外観を保ちながら、ポーズの劇的なバリエーションに直面する際に、我々のシステムが他の多くのアプローチに適合または超えることを示した。
PT-VTONは、マシンベースの定量的メトリクスと定性的な結果の両方において、代替手法よりも優れていることが示されている。
関連論文リスト
- ITVTON:Virtual Try-On Diffusion Transformer Model Based on Integrated Image and Text [0.0]
ITVTONは,衣料品とキャラクタイメージを入力として空間チャネルに沿って組み合わせることで,衣料品とキャラクタのインタラクションを向上させる手法である。
複数の画像からテキストを統合的に記述することで、生成した視覚効果の現実性を高める。
実験では、ITVTONは質的にも定量的にもベースライン法より優れている。
論文 参考訳(メタデータ) (2025-01-28T07:24:15Z) - ODPG: Outfitting Diffusion with Pose Guided Condition [2.5602836891933074]
VTON技術は、物理的に試すことなく、服がどのように見えるかを視覚化する。
GAN(Geneversarative Adrial Networks)と拡散モデル(Diffusion model)を用いた従来のVTON手法は、高いリアリズムの実現と動的なポーズの処理において課題に直面している。
本稿では,複数の条件入力を持つ潜伏拡散モデルを利用した新しい手法であるFOPS(Outfitting Diffusion with Pose Guided Condition)を提案する。
論文 参考訳(メタデータ) (2025-01-12T10:30:27Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - VividPose: Advancing Stable Video Diffusion for Realistic Human Image Animation [79.99551055245071]
時間的安定性を向上するエンドツーエンドパイプラインであるVividPoseを提案する。
識別対応外見制御器は、他の外見の詳細を損なうことなく、追加の顔情報を統合する。
SMPL-Xからの高密度レンダリングマップとスパーススケルトンマップの両方を利用する幾何対応のポーズコントローラ。
VividPoseは、提案したWildデータセットに優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-28T13:18:32Z) - C-VTON: Context-Driven Image-Based Virtual Try-On Network [1.0832844764942349]
本稿では,選択した衣服を対象者に確実に転送するコンテキスト駆動型仮想トライオンネットワーク(C-VTON)を提案する。
C-VTONパイプラインのコアには、(i)入力画像中の人物のポーズに目的の衣服を効率よく整列する幾何マッチング手順と、(ii)最終試行結果に様々な種類の文脈情報を利用する強力な画像生成装置とがある。
論文 参考訳(メタデータ) (2022-12-08T17:56:34Z) - Single Stage Multi-Pose Virtual Try-On [119.95115739956661]
Multi-pose Virtual try-on (MPVTON) は、ターゲットの服をターゲットのポーズで人に合わせることを目的としている。
MPVTONは、より良い試着体験を提供するが、二重の衣服と編集目的のポーズのため、さらに難しい。
既存の方法は、ターゲットセマンティックレイアウト予測モジュール、粗い試行画像生成装置、精細化試行画像生成装置を含む3つの不整合モジュールからなるパイプラインを採用する。
本稿では,TONのための新しい単一ステージモデルを提案する。我々のモデルにとってキーとなるのは,人物と衣服の画像の両方のフロー場を予測する並列フロー推定モジュールである。
論文 参考訳(メタデータ) (2022-11-19T15:02:11Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。