論文の概要: Undress to Redress: A Training-Free Framework for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2508.07680v1
- Date: Mon, 11 Aug 2025 06:55:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.980516
- Title: Undress to Redress: A Training-Free Framework for Virtual Try-On
- Title(参考訳): Undress to Redress: 仮想トライオンのためのトレーニング不要のフレームワーク
- Authors: Zhiying Li, Junhao Wu, Yeying Jin, Daiheng Gao, Yun Ji, Kaichuan Kong, Lei Yu, Hao Xu, Kai Chen, Bruce Gu, Nana Wang, Zhaoxin Fan,
- Abstract要約: 既存のVTONメソッドとシームレスに統合可能なトレーニングフリーフレームワークであるUR-VTON(Undress-Redress Virtual Try-ON)を提案する。
UR-VTON は 'undress-to-redress' というメカニズムを導入している。
また、長袖から短袖へのトライオンのための新しいベンチマークLS-TONも提示する。
- 参考スコア(独自算出の注目度): 19.00614787972817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual try-on (VTON) is a crucial task for enhancing user experience in online shopping by generating realistic garment previews on personal photos. Although existing methods have achieved impressive results, they struggle with long-sleeve-to-short-sleeve conversions-a common and practical scenario-often producing unrealistic outputs when exposed skin is underrepresented in the original image. We argue that this challenge arises from the ''majority'' completion rule in current VTON models, which leads to inaccurate skin restoration in such cases. To address this, we propose UR-VTON (Undress-Redress Virtual Try-ON), a novel, training-free framework that can be seamlessly integrated with any existing VTON method. UR-VTON introduces an ''undress-to-redress'' mechanism: it first reveals the user's torso by virtually ''undressing,'' then applies the target short-sleeve garment, effectively decomposing the conversion into two more manageable steps. Additionally, we incorporate Dynamic Classifier-Free Guidance scheduling to balance diversity and image quality during DDPM sampling, and employ Structural Refiner to enhance detail fidelity using high-frequency cues. Finally, we present LS-TON, a new benchmark for long-sleeve-to-short-sleeve try-on. Extensive experiments demonstrate that UR-VTON outperforms state-of-the-art methods in both detail preservation and image quality. Code will be released upon acceptance.
- Abstract(参考訳): VTON(Virtual try-on)は、個人写真にリアルな服装のプレビューを生成することで、オンラインショッピングにおけるユーザエクスペリエンスを高めるための重要なタスクである。
既存の手法は印象的な成果を上げてきたが、彼らは長袖から短袖への変換に苦慮している。
この課題は、現在のVTONモデルにおける 'majority' 完了規則から生じるものであり、このようなケースでは不正確な皮膚修復につながる。
そこで本研究では,既存のVTONメソッドとシームレスに統合可能な,新しいトレーニングフリーフレームワークであるUR-VTON(Undress-Redress Virtual Try-ON)を提案する。
UR-VTONは'undress-to-redress'機構を導入し、まず仮想的な'undressing'によってユーザの胴体を露呈し、ターゲットの短袖の衣服を適用し、効果的に2つの管理可能なステップに分解する。
さらに、DDPMサンプリング時の多様性と画質のバランスをとるためにDynamic Classifier-Free Guidance Schedulingを導入し、構造Refinerを採用し、高周波キューを用いて詳細な忠実度を向上させる。
最後に、長袖から短袖へのトライオンのための新しいベンチマークLS-TONを提案する。
大規模な実験により、UR-VTONは細部保存と画質の両方において最先端の手法より優れていることが示された。
コードは受理時にリリースされる。
関連論文リスト
- OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - ITVTON: Virtual Try-On Diffusion Transformer Based on Integrated Image and Text [11.85544970521423]
画像品質を向上させるためにDiffusion Transformer (DiT) をジェネレータとして利用する ITVTON を導入する。
ITVTONは、空間チャネルに沿って衣服や人物画像を縫い合わせることにより、衣服と人物の相互作用を改善する。
単一拡散変圧器(Single-DiT)ブロック内の注意パラメータに対する訓練を制約する。
論文 参考訳(メタデータ) (2025-01-28T07:24:15Z) - TryOffDiff: Virtual-Try-Off via High-Fidelity Garment Reconstruction using Diffusion Models [8.158200403139196]
VTOFF(Virtual Try-Off)は,着用者の単一写真から標準化された衣服画像を生成する新しいタスクである。
TryOffDiffは、SigLIPベースのビジュアルコンディショニングで安定拡散を適用して、高忠実度再構築を実現する。
本研究は, 電子商取引製品イメージの向上, 生成モデル評価の進展, 高忠実度再構築に向けた今後の研究を導くことを目的としたものである。
論文 参考訳(メタデータ) (2024-11-27T13:53:09Z) - High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable
Virtual Try-on [7.46772222515689]
OOTDiffusionは、リアルで制御可能なイメージベースの仮想トライオンのための新しいネットワークアーキテクチャである。
我々は、事前訓練された潜伏拡散モデルのパワーを活用し、UNetを設計して、衣服の詳細特徴を学習する。
VITON-HDおよびDress Codeデータセットに関する実験により、OOTDiffusionが効率よく高品質な試行結果を生成することを示した。
論文 参考訳(メタデータ) (2024-03-04T07:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。