論文の概要: OmniVTON++: Training-Free Universal Virtual Try-On with Principal Pose Guidance
- arxiv url: http://arxiv.org/abs/2602.14552v1
- Date: Mon, 16 Feb 2026 08:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.334461
- Title: OmniVTON++: Training-Free Universal Virtual Try-On with Principal Pose Guidance
- Title(参考訳): OmniVTON++: 主要なPoseガイダンスを備えたトレーニング不要のユニバーサルバーチャルトライオン
- Authors: Zhaotong Yang, Yong Du, Shengfeng He, Yuhui Li, Xinzhe Li, Yangyang Xu, Junyu Dong, Jian Yang,
- Abstract要約: 画像ベースの仮想トライオン(VTON)は、人間のポーズと身体の制約下での衣服の再レンダリングを通じて、現実的な人物画像の合成を懸念する。
OmniVTON++は、トレーニング不要なVTONフレームワークで、普遍的な適用性のために設計されている。
- 参考スコア(独自算出の注目度): 85.23143742905695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based Virtual Try-On (VTON) concerns the synthesis of realistic person imagery through garment re-rendering under human pose and body constraints. In practice, however, existing approaches are typically optimized for specific data conditions, making their deployment reliant on retraining and limiting their generalization as a unified solution. We present OmniVTON++, a training-free VTON framework designed for universal applicability. It addresses the intertwined challenges of garment alignment, human structural coherence, and boundary continuity by coordinating Structured Garment Morphing for correspondence-driven garment adaptation, Principal Pose Guidance for step-wise structural regulation during diffusion sampling, and Continuous Boundary Stitching for boundary-aware refinement, forming a cohesive pipeline without task-specific retraining. Experimental results demonstrate that OmniVTON++ achieves state-of-the-art performance across diverse generalization settings, including cross-dataset and cross-garment-type evaluations, while reliably operating across scenarios and diffusion backbones within a single formulation. In addition to single-garment, single-human cases, the framework supports multi-garment, multi-human, and anime character virtual try-on, expanding the scope of virtual try-on applications. The source code will be released to the public.
- Abstract(参考訳): 画像ベースの仮想トライオン(VTON)は、人間のポーズと身体の制約下での衣服の再レンダリングを通じて、現実的な人物画像の合成を懸念する。
しかし、実際には、既存のアプローチは一般的に特定のデータ条件に最適化されており、デプロイメントは再トレーニングと統一されたソリューションとしての一般化の制限に依存している。
OmniVTON++は、トレーニング不要なVTONフレームワークで、普遍的な適用性のために設計されている。
適合性のある衣服適応のための構造化ガーメント・モーフィングの調整、拡散サンプリング中の段階的構造制御のためのプリンシパル・ポス・ガイダンス、境界認識の洗練のための連続境界スティッチング、タスク固有のリトレーニングなしで凝集性パイプラインを形成することで、衣服アライメント、人間の構造的コヒーレンス、境界連続性の両面的な課題に対処する。
実験結果から,OmniVTON++はクロスデータセットやクロスガーメント型評価など,多種多様な一般化設定における最先端性能を実現すると同時に,シナリオや拡散バックボーンをひとつの定式化内で確実に操作できることがわかった。
シングルガーメント、シングルヒューマンケースに加えて、このフレームワークはマルチガーメント、マルチヒューマン、アニメキャラクタ仮想トライオンをサポートし、仮想トライオンアプリケーションの範囲を広げている。
ソースコードは一般に公開される予定だ。
関連論文リスト
- MuGa-VTON: Multi-Garment Virtual Try-On via Diffusion Transformers with Prompt Customization [19.780800887427937]
我々は,上着と下着を共用した多目的拡散フレームワーク MuGa-VTON を紹介する。
このアーキテクチャはプロンプトベースのカスタマイズをサポートし、最小限のユーザ入力できめ細かい衣服の修正を可能にする。
論文 参考訳(メタデータ) (2025-08-11T21:45:07Z) - OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - CrossVTON: Mimicking the Logic Reasoning on Cross-category Virtual Try-on guided by Tri-zone Priors [63.95051258676488]
CrossVTONは、クロスカテゴリ仮想試行のための堅牢なフィッティングイメージを生成するためのフレームワークである。
クロスカテゴリ試行に必要な複雑な推論を構造化フレームワークに切り離す。
定性評価と定量的評価の両方において、既存のベースラインを超え、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-20T09:05:35Z) - ITVTON: Virtual Try-On Diffusion Transformer Based on Integrated Image and Text [1.7071356210178177]
ITVTONは、Diffusion Transformer (DiT) を単一のジェネレータとして活用し、画像の忠実性を向上させる効率的なフレームワークである。
ITVTONは、幅寸法に沿って衣服や人物の画像を効果的にキャプチャし、両方のテキスト記述を組み込む。
IGPairによる10,257枚の画像対の実験により、実世界のシナリオにおけるITVTONの堅牢性が確認された。
論文 参考訳(メタデータ) (2025-01-28T07:24:15Z) - GP-VTON: Towards General Purpose Virtual Try-on via Collaborative
Local-Flow Global-Parsing Learning [63.8668179362151]
仮想トライオン(Virtual Try-ON)は、ショップ内の衣服を特定の人に転送することを目的としている。
既存の手法では、異なる衣服部品の異方性変形をモデル化するために、グローバルなワーピングモジュールを使用している。
本稿では,革新的なローカルフロー・グローバル・パーシング(LFGP)ワーピングモジュールと動的グラディエント・トラニケーション(DGT)トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T02:12:29Z) - PASTA-GAN++: A Versatile Framework for High-Resolution Unpaired Virtual
Try-on [70.12285433529998]
PASTA-GAN++は高解像度の仮想試行のための汎用システムである。
教師なしのトレーニング、任意の衣服カテゴリー、制御可能な衣服編集をサポートする。
論文 参考訳(メタデータ) (2022-07-27T11:47:49Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。