論文の概要: Clothing agnostic Pre-inpainting Virtual Try-ON
- arxiv url: http://arxiv.org/abs/2509.17654v2
- Date: Tue, 23 Sep 2025 06:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 11:50:03.967609
- Title: Clothing agnostic Pre-inpainting Virtual Try-ON
- Title(参考訳): 着替え前着替え型仮想試着オン
- Authors: Sehyun Kim, Hye Jun Lee, Jiwoo Lee, Taemin Lee,
- Abstract要約: CaP-VTONは全身の衣服合成の自然性と一貫性を改善した。
CaP-VTONは92.5%であり、短時間の合成精度ではレファよりも15.4%良い。
- 参考スコア(独自算出の注目度): 1.7764619921640012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning technology, virtual try-on technology has become an important application value in the fields of e-commerce, fashion, and entertainment. The recently proposed Leffa has improved the texture distortion problem of diffu-sion-based models, but there are limitations in that the bottom detection inaccuracy and the existing clothing silhouette remain in the synthesis results. To solve this problem, this study proposes CaP-VTON (Clothing agnostic Pre-inpainting Virtual Try-ON). CaP-VTON has improved the naturalness and consistency of whole-body clothing syn-thesis by integrating multi-category masking based on Dress Code and skin inpainting based on Stable Diffusion. In particular, a generate skin module was introduced to solve the skin restoration problem that occurs when long-sleeved images are converted into short-sleeved or sleeveless ones, and high-quality restoration was implemented consider-ing the human body posture and color. As a result, CaP-VTON recorded 92.5%, which is 15.4% better than Leffa in short-sleeved synthesis accuracy, and showed the performance of consistently reproducing the style and shape of reference clothing in visual evaluation. These structures maintain model-agnostic properties and are applicable to various diffu-sion-based virtual inspection systems, and can contribute to applications that require high-precision virtual wearing, such as e-commerce, custom styling, and avatar creation.
- Abstract(参考訳): ディープラーニング技術の発展に伴い、仮想トライオン技術は、eコマース、ファッション、エンターテイメントの分野で重要な応用価値となっている。
最近提案されたLeffaは、拡散度モデルにおけるテクスチャ歪み問題を改善しているが、底面検出の不正確さと既存の衣服シルエットが合成結果に残るという制限がある。
そこで本研究では,CaP-VTON (Clothing agnostic pre-inpainting Virtual Try-ON)を提案する。
CaP-VTONは、Dress Codeに基づく多カテゴリーマスキングと安定拡散に基づく皮膚塗布を統合することで、全身服の合成の自然性と一貫性を改善した。
特に、長袖画像が短袖画像や袖なし画像に変換された際に生じる皮膚修復問題を解消するために、生成皮膚モジュールを導入し、人体姿勢や色を考慮した高品質な修復を行った。
その結果、CaP-VTON は 92.5% を記録し、これは短時間の合成精度では Leffa よりも 15.4% 良い値を示し、視覚的評価において参照服のスタイルと形状を一貫して再現する性能を示した。
これらの構造は、モデルに依存しない性質を保持しており、様々なディフュージョンベースの仮想検査システムに適用でき、電子商取引、カスタムスタイリング、アバター作成など、高精度な仮想装具を必要とするアプリケーションに寄与することができる。
関連論文リスト
- Undress to Redress: A Training-Free Framework for Virtual Try-On [19.00614787972817]
既存のVTONメソッドとシームレスに統合可能なトレーニングフリーフレームワークであるUR-VTON(Undress-Redress Virtual Try-ON)を提案する。
UR-VTON は 'undress-to-redress' というメカニズムを導入している。
また、長袖から短袖へのトライオンのための新しいベンチマークLS-TONも提示する。
論文 参考訳(メタデータ) (2025-08-11T06:55:49Z) - DiffFit: Disentangled Garment Warping and Texture Refinement for Virtual Try-On [3.5655800569257896]
VTON(Virtual try-on)は、ターゲット服を着用している人のリアルなイメージを、電子商取引やデジタルファッションに広く応用することを目的としている。
DiffFitは,高忠実度仮想試行のための新しい2段階遅延拡散フレームワークである。
論文 参考訳(メタデータ) (2025-06-29T15:31:42Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of Altered Diffusion Models [4.038493506169702]
本研究は, 複雑なテクスチャの詳細と, 対象者と衣服の特徴を, 様々なシナリオで保存することの課題を強調する。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:15:29Z) - WarpDiffusion: Efficient Diffusion Model for High-Fidelity Virtual
Try-on [81.15988741258683]
画像ベースの仮想トライオン(VITON)は、ホップ内の衣服イメージを対象人物に転送することを目的としている。
現在の方法では、衣服と肌の境界付近の合成品質や、ねじれた衣服のしわや影のような現実的な効果を見落としていることが多い。
本稿では,新しい情報的・局所的な特徴的注意機構を通じてワーピングと拡散に基づくパラダイムを橋渡しするワープ拡散を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:34:32Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。