論文の概要: DualFit: A Two-Stage Virtual Try-On via Warping and Synthesis
- arxiv url: http://arxiv.org/abs/2508.12131v1
- Date: Sat, 16 Aug 2025 18:50:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.577393
- Title: DualFit: A Two-Stage Virtual Try-On via Warping and Synthesis
- Title(参考訳): DualFit:ウォーピングと合成による2段階のバーチャルトライオン
- Authors: Minh Tran, Johnmark Clements, Annie Prasanna, Tri Nguyen, Ngan Le,
- Abstract要約: ロゴや印刷されたテキスト要素などのきめ細かい衣服の詳細を保存するためのDualFitを提案する。
最初の段階では、DualFitはターゲットの衣服をワープし、学習した流れ場を使って人物の画像と整列する。
第2段階において、忠実度試行モジュールは、歪んだ衣服と保存されたヒト領域を混合することにより最終出力を合成する。
- 参考スコア(独自算出の注目度): 8.082593574401704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual Try-On technology has garnered significant attention for its potential to transform the online fashion retail experience by allowing users to visualize how garments would look on them without physical trials. While recent advances in diffusion-based warping-free methods have improved perceptual quality, they often fail to preserve fine-grained garment details such as logos and printed text elements that are critical for brand integrity and customer trust. In this work, we propose DualFit, a hybrid VTON pipeline that addresses this limitation by two-stage approach. In the first stage, DualFit warps the target garment to align with the person image using a learned flow field, ensuring high-fidelity preservation. In the second stage, a fidelity-preserving try-on module synthesizes the final output by blending the warped garment with preserved human regions. Particularly, to guide this process, we introduce a preserved-region input and an inpainting mask, enabling the model to retain key areas and regenerate only where necessary, particularly around garment seams. Extensive qualitative results show that DualFit achieves visually seamless try-on results while faithfully maintaining high-frequency garment details, striking an effective balance between reconstruction accuracy and perceptual realism.
- Abstract(参考訳): 仮想トライオン技術は、ユーザーが物理的な試用なしで衣服がどう見えるかを視覚化することで、オンラインのファッション小売体験を変革する可能性に大きな注目を集めている。
拡散に基づくワープフリー手法の最近の進歩は知覚的品質を改善しているが、ブランドの整合性や顧客信頼に不可欠なロゴや印刷されたテキスト要素といった細粒度の詳細を保存できないことが多い。
本研究では,この制限に2段階アプローチで対処するハイブリッドVTONパイプラインであるDualFitを提案する。
第1段階では、DualFitはターゲットの衣服をワープし、学習した流れ場を用いて人物画像と整列し、高忠実度保存を確実にする。
第2段階において、忠実保存試着モジュールは、歪んだ衣服と保存されたヒト領域を混合することにより最終出力を合成する。
特に, このプロセスの指針として, 保存領域の入力と塗装マスクを導入し, キー領域の保持と, 必要な時, 特に衣服の縫い目周辺でのみ再生を可能にする。
広汎な質的結果から、DualFitは高頻度の衣服の詳細を忠実に維持しつつ視覚的にシームレスに試行し、再建精度と知覚リアリズムの効果的なバランスを保っていることが分かる。
関連論文リスト
- OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - DiffFit: Disentangled Garment Warping and Texture Refinement for Virtual Try-On [3.5655800569257896]
VTON(Virtual try-on)は、ターゲット服を着用している人のリアルなイメージを、電子商取引やデジタルファッションに広く応用することを目的としている。
DiffFitは,高忠実度仮想試行のための新しい2段階遅延拡散フレームワークである。
論文 参考訳(メタデータ) (2025-06-29T15:31:42Z) - HYB-VITON: A Hybrid Approach to Virtual Try-On Combining Explicit and Implicit Warping [4.1205832766381985]
仮想トライオンシステムは電子商取引において大きな可能性を秘めており、顧客は自分自身で衣服を視覚化することができる。
既存の画像ベースの手法は、被写体を直接人体にワープする手法と、被写体をクロスアテンションで再構築する手法の2つのカテゴリに分類される。
本稿では,各手法の利点を組み合わせた新しいアプローチであるHYB-VITONを提案する。
論文 参考訳(メタデータ) (2025-01-07T16:24:43Z) - FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。