論文の概要: Two-Way Garment Transfer: Unified Diffusion Framework for Dressing and Undressing Synthesis
- arxiv url: http://arxiv.org/abs/2508.04551v1
- Date: Wed, 06 Aug 2025 15:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.790779
- Title: Two-Way Garment Transfer: Unified Diffusion Framework for Dressing and Undressing Synthesis
- Title(参考訳): 2-Wayガーメント転送:ドレッシングとアンドレス合成のための統一拡散フレームワーク
- Authors: Angang Zhang, Fang Deng, Hao Chen, Zhongjian Chen, Junyan Li,
- Abstract要約: 本稿では,マスク誘導型VTONとマスクフリーなVTOFFを同時に解決する共同衣料中心画像合成フレームワークを提案する。
具体的には,2つのタスクをシームレスにブリッジするために,遅延画像と画素画像の両方からの2条件誘導を用いる。
一方,マスク誘導型VTONとマスクフリー型VTOFFのマスク依存性非対称性を解決するため,段階的なトレーニングパラダイムを考案した。
- 参考スコア(独自算出の注目度): 5.716907666817588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent advances in virtual try-on (VTON) have achieved realistic garment transfer to human subjects, its inverse task, virtual try-off (VTOFF), which aims to reconstruct canonical garment templates from dressed humans, remains critically underexplored and lacks systematic investigation. Existing works predominantly treat them as isolated tasks: VTON focuses on garment dressing while VTOFF addresses garment extraction, thereby neglecting their complementary symmetry. To bridge this fundamental gap, we propose the Two-Way Garment Transfer Model (TWGTM), to the best of our knowledge, the first unified framework for joint clothing-centric image synthesis that simultaneously resolves both mask-guided VTON and mask-free VTOFF through bidirectional feature disentanglement. Specifically, our framework employs dual-conditioned guidance from both latent and pixel spaces of reference images to seamlessly bridge the dual tasks. On the other hand, to resolve the inherent mask dependency asymmetry between mask-guided VTON and mask-free VTOFF, we devise a phased training paradigm that progressively bridges this modality gap. Extensive qualitative and quantitative experiments conducted across the DressCode and VITON-HD datasets validate the efficacy and competitive edge of our proposed approach.
- Abstract(参考訳): 近年の仮想試着(VTON)の進歩は人体への現実的な衣服の移動を達成しているが、その逆タスクである仮想試着(VTOFF)は、服装の人間から標準服のテンプレートを再構築することを目的としており、批判的に過小評価され、体系的な調査が欠如している。
VTONは衣服の着替えに焦点を当て、VTOFFは衣服の取り出しに対処し、従属対称性を無視する。
このギャップを埋めるため,マスク誘導型VTONとマスクフリーなVTOFFを両面交絡により同時に解消する共同衣料中心画像合成のための最初の統合フレームワークであるTWGTM(Two-Way Garment Transfer Model)を提案する。
具体的には,2つのタスクをシームレスにブリッジするために,遅延画像と画素画像の両方からの2条件誘導を用いる。
一方,マスク誘導型VTONとマスクフリー型VTOFFのマスク依存性非対称性を解決するため,段階的なトレーニングパラダイムを考案した。
DressCodeとVITON-HDデータセットをまたいだ大規模な定性的および定量的実験により、提案手法の有効性と競争力の限界が検証された。
関連論文リスト
- Voost: A Unified and Scalable Diffusion Transformer for Bidirectional Virtual Try-On and Try-Off [9.45991209383675]
仮想的な試行と試行を単一の拡散変換器で共同で学習する統合フレームワークであるVoostを提案する。
Voostは、試行錯誤ベンチマークと試行錯誤ベンチマークの両方で最先端の結果を達成し、アライメント精度、視覚的忠実度、一般化における強いベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-06T19:10:58Z) - One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose [99.056324701764]
textbfOMFA (emphOne Model For All) は仮想トライオンとトライオフの両方のための統合拡散フレームワークである。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要とします。
試着タスクと試着タスクの両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-08-06T15:46:01Z) - OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - DS-VTON: High-Quality Virtual Try-on via Disentangled Dual-Scale Generation [38.499761393356124]
DS-VTONは、より効果的なモデリングのために目的を絞ったデュアルスケール仮想試行フレームワークである。
提案手法では, パーシングマップやセグメンテーションマスクへの依存を排除し, マスクフリーな生成パラダイムを採用する。
論文 参考訳(メタデータ) (2025-06-01T08:52:57Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - Incorporating Visual Correspondence into Diffusion Model for Virtual Try-On [89.9123806553489]
拡散モデルは仮想試行(VTON)タスクで成功している。
この問題は、拡散モデルの本質性により、与えられた衣服の形状や細部を保存することは依然として困難である。
本稿では,視力の拡散前処理として視覚的対応を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2025-05-22T17:52:13Z) - MF-VITON: High-Fidelity Mask-Free Virtual Try-On with Minimal Input [69.33864837012202]
本研究では,一人のイメージとターゲット衣服のみを用いて,現実的なVITONを実現するMask-Free VITONフレームワークを提案する。
既存のMaskベースのVITONモデルを利用して高品質なデータセットを合成する。
このデータセットには、多様で現実的な人物画像とそれに対応する衣服が含まれており、背景も様々で、現実世界のシナリオを模倣している。
論文 参考訳(メタデータ) (2025-03-11T17:40:59Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。