論文の概要: DiffFit: Disentangled Garment Warping and Texture Refinement for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2506.23295v1
- Date: Sun, 29 Jun 2025 15:31:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.816099
- Title: DiffFit: Disentangled Garment Warping and Texture Refinement for Virtual Try-On
- Title(参考訳): DiffFit: バーチャル試着用アンタングル型ガーメントワープとテクスチャリファインメント
- Authors: Xiang Xu,
- Abstract要約: VTON(Virtual try-on)は、ターゲット服を着用している人のリアルなイメージを、電子商取引やデジタルファッションに広く応用することを目的としている。
DiffFitは,高忠実度仮想試行のための新しい2段階遅延拡散フレームワークである。
- 参考スコア(独自算出の注目度): 3.5655800569257896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual try-on (VTON) aims to synthesize realistic images of a person wearing a target garment, with broad applications in e-commerce and digital fashion. While recent advances in latent diffusion models have substantially improved visual quality, existing approaches still struggle with preserving fine-grained garment details, achieving precise garment-body alignment, maintaining inference efficiency, and generalizing to diverse poses and clothing styles. To address these challenges, we propose DiffFit, a novel two-stage latent diffusion framework for high-fidelity virtual try-on. DiffFit adopts a progressive generation strategy: the first stage performs geometry-aware garment warping, aligning the garment with the target body through fine-grained deformation and pose adaptation. The second stage refines texture fidelity via a cross-modal conditional diffusion model that integrates the warped garment, the original garment appearance, and the target person image for high-quality rendering. By decoupling geometric alignment and appearance refinement, DiffFit effectively reduces task complexity and enhances both generation stability and visual realism. It excels in preserving garment-specific attributes such as textures, wrinkles, and lighting, while ensuring accurate alignment with the human body. Extensive experiments on large-scale VTON benchmarks demonstrate that DiffFit achieves superior performance over existing state-of-the-art methods in both quantitative metrics and perceptual evaluations.
- Abstract(参考訳): VTON(Virtual try-on)は、ターゲット服を着用している人のリアルなイメージを、電子商取引やデジタルファッションに広く応用することを目的としている。
近年の潜伏拡散モデルの進歩は視覚的品質を大幅に向上させたが、既存のアプローチでは、細かな衣服の詳細の保存、正確な衣料品の調整、推論効率の維持、多様なポーズや衣服スタイルへの一般化に苦慮している。
これらの課題に対処するために、高忠実度仮想試行のための新しい2段階遅延拡散フレームワークであるDiffFitを提案する。
DiffFitはプログレッシブ・ジェネレーション・ストラテジーを採用しており、第1段階は形状を意識した衣服のワープを行い、微粒な変形と適応によって衣服を対象の体と整列させる。
第2段階は、経時的な条件拡散モデルによりテクスチャの忠実度を洗練し、このモデルにより、ワープされた衣服、元の衣服の外観、および高品質なレンダリングのためのターゲット人物画像を統合する。
幾何アライメントと外観の洗練を分離することにより、DiffFitはタスクの複雑さを効果的に低減し、生成安定性と視覚リアリズムの両方を強化する。
テクスチャ、しわ、照明などの衣服特有の特性を保ちながら、人体との正確な整合性を確保している。
大規模VTONベンチマークの大規模な実験により、DiffFitは、定量的メトリクスと知覚的評価の両方において、既存の最先端手法よりも優れた性能を発揮することが示された。
関連論文リスト
- DS-VTON: High-Quality Virtual Try-on via Disentangled Dual-Scale Generation [38.499761393356124]
DS-VTONは、より効果的なモデリングのために目的を絞ったデュアルスケール仮想試行フレームワークである。
提案手法では, パーシングマップやセグメンテーションマスクへの依存を排除し, マスクフリーな生成パラダイムを採用する。
論文 参考訳(メタデータ) (2025-06-01T08:52:57Z) - HF-VTON: High-Fidelity Virtual Try-On via Consistent Geometric and Semantic Alignment [11.00877062567135]
HF-VTONは,多種多様なポーズにおける高忠実度仮想トライオン性能を保証する新しいフレームワークである。
HF-VTONは3つの主要なモジュールで構成されている: 外観保存型ワープアライメントモジュール、セマンティック表現モジュール、およびマルチモーダル事前誘導型外観生成モジュール。
実験の結果,HF-VTONはVITON-HDとSAMP-VTONSの両方で最先端の手法より優れていた。
論文 参考訳(メタデータ) (2025-05-26T07:55:49Z) - FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。