論文の概要: OmniVTON: Training-Free Universal Virtual Try-On
- arxiv url: http://arxiv.org/abs/2507.15037v1
- Date: Sun, 20 Jul 2025 16:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.169197
- Title: OmniVTON: Training-Free Universal Virtual Try-On
- Title(参考訳): OmniVTON: トレーニングフリーのユニバーサルバーチャルトライオン
- Authors: Zhaotong Yang, Yuhui Li, Shengfeng He, Xinzhe Li, Yangyang Xu, Junyu Dong, Yong Du,
- Abstract要約: イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
- 参考スコア(独自算出の注目度): 53.31945401098557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based Virtual Try-On (VTON) techniques rely on either supervised in-shop approaches, which ensure high fidelity but struggle with cross-domain generalization, or unsupervised in-the-wild methods, which improve adaptability but remain constrained by data biases and limited universality. A unified, training-free solution that works across both scenarios remains an open challenge. We propose OmniVTON, the first training-free universal VTON framework that decouples garment and pose conditioning to achieve both texture fidelity and pose consistency across diverse settings. To preserve garment details, we introduce a garment prior generation mechanism that aligns clothing with the body, followed by continuous boundary stitching technique to achieve fine-grained texture retention. For precise pose alignment, we utilize DDIM inversion to capture structural cues while suppressing texture interference, ensuring accurate body alignment independent of the original image textures. By disentangling garment and pose constraints, OmniVTON eliminates the bias inherent in diffusion models when handling multiple conditions simultaneously. Experimental results demonstrate that OmniVTON achieves superior performance across diverse datasets, garment types, and application scenarios. Notably, it is the first framework capable of multi-human VTON, enabling realistic garment transfer across multiple individuals in a single scene. Code is available at https://github.com/Jerome-Young/OmniVTON
- Abstract(参考訳): イメージベースの仮想トライオン(VTON)技術は、高い忠実性を保証するが、クロスドメインの一般化に苦慮する教師なしのインショップアプローチ、あるいは適応性を改善するが、データバイアスや制限された普遍性によって制約されるアントラクテッドインザミルド手法のいずれかに依存している。
両方のシナリオで機能する、統合されたトレーニング不要のソリューションは、依然としてオープンな課題です。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
衣服の細部を保存するために,衣服を体と整列させる衣服先行生成機構を導入し,続いて連続的な境界縫合技術によりきめ細かなテクスチャ保持を実現する。
正確なポーズアライメントのために、DDIMインバージョンを用いて、テクスチャ干渉を抑制しながら構造的手がかりを捕捉し、元の画像テクスチャとは無関係に正確なボディアライメントを確保する。
OmniVTONは衣服とポーズの制約を取り除き、複数の条件を同時に扱う際に拡散モデルに固有のバイアスを取り除く。
実験の結果、OmniVTONは多様なデータセット、衣服の種類、アプリケーションシナリオで優れたパフォーマンスを実現している。
特に、マルチヒューマンVTONが可能な最初のフレームワークであり、1つのシーンで複数の個人間で現実的な衣服の移動を可能にする。
コードはhttps://github.com/Jerome-Young/OmniVTONで入手できる。
関連論文リスト
- One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose [99.056324701764]
textbfOMFA (emphOne Model For All) は仮想トライオンとトライオフの両方のための統合拡散フレームワークである。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要とします。
試着タスクと試着タスクの両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-08-06T15:46:01Z) - Two-Way Garment Transfer: Unified Diffusion Framework for Dressing and Undressing Synthesis [5.716907666817588]
本稿では,マスク誘導型VTONとマスクフリーなVTOFFを同時に解決する共同衣料中心画像合成フレームワークを提案する。
具体的には,2つのタスクをシームレスにブリッジするために,遅延画像と画素画像の両方からの2条件誘導を用いる。
一方,マスク誘導型VTONとマスクフリー型VTOFFのマスク依存性非対称性を解決するため,段階的なトレーニングパラダイムを考案した。
論文 参考訳(メタデータ) (2025-08-06T15:37:16Z) - DS-VTON: High-Quality Virtual Try-on via Disentangled Dual-Scale Generation [38.499761393356124]
DS-VTONは、より効果的なモデリングのために目的を絞ったデュアルスケール仮想試行フレームワークである。
提案手法では, パーシングマップやセグメンテーションマスクへの依存を排除し, マスクフリーな生成パラダイムを採用する。
論文 参考訳(メタデータ) (2025-06-01T08:52:57Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - Incorporating Visual Correspondence into Diffusion Model for Virtual Try-On [89.9123806553489]
拡散モデルは仮想試行(VTON)タスクで成功している。
この問題は、拡散モデルの本質性により、与えられた衣服の形状や細部を保存することは依然として困難である。
本稿では,視力の拡散前処理として視覚的対応を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2025-05-22T17:52:13Z) - Any2AnyTryon: Leveraging Adaptive Position Embeddings for Versatile Virtual Clothing Tasks [31.461116368933165]
画像ベースの仮想試行(VTON)は、入力された衣服を対象者の画像に転送することで仮想試行結果を生成することを目的としている。
組合わせ型衣料品データの不足は,VTONの高一般化と品質を実現する既存手法を困難にしている。
そこで,AnyTryonを提案する。AnyTryonは,異なるテキスト命令とモデル衣料品画像に基づいて試着結果を生成することができる。
論文 参考訳(メタデータ) (2025-01-27T09:33:23Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable
Virtual Try-on [7.46772222515689]
OOTDiffusionは、リアルで制御可能なイメージベースの仮想トライオンのための新しいネットワークアーキテクチャである。
我々は、事前訓練された潜伏拡散モデルのパワーを活用し、UNetを設計して、衣服の詳細特徴を学習する。
VITON-HDおよびDress Codeデータセットに関する実験により、OOTDiffusionが効率よく高品質な試行結果を生成することを示した。
論文 参考訳(メタデータ) (2024-03-04T07:17:44Z) - GP-VTON: Towards General Purpose Virtual Try-on via Collaborative
Local-Flow Global-Parsing Learning [63.8668179362151]
仮想トライオン(Virtual Try-ON)は、ショップ内の衣服を特定の人に転送することを目的としている。
既存の手法では、異なる衣服部品の異方性変形をモデル化するために、グローバルなワーピングモジュールを使用している。
本稿では,革新的なローカルフロー・グローバル・パーシング(LFGP)ワーピングモジュールと動的グラディエント・トラニケーション(DGT)トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T02:12:29Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。