論文の概要: GO-MLVTON: Garment Occlusion-Aware Multi-Layer Virtual Try-On with Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.13524v1
- Date: Tue, 20 Jan 2026 02:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.122401
- Title: GO-MLVTON: Garment Occlusion-Aware Multi-Layer Virtual Try-On with Diffusion Models
- Title(参考訳): GO-MLVTON: 拡散モデルを用いたガーメントオクルージョン対応多層バーチャルトライオン
- Authors: Yang Yu, Yunze Deng, Yige Zhang, Yanjie Xiao, Youkun Ou, Wenhao Hu, Mingchao Li, Bin Feng, Wenyu Liu, Dandan Zheng, Jingdong Chen,
- Abstract要約: 既存の画像ベースの仮想試行法は、主に単層または多層VTONに焦点を当てている。
本稿では,Garment Occlusion LearningモジュールとStableDiffusionベースのGarment Morphing & Fittingモジュールを導入した最初の多層VTON手法であるGO-MLVTONを提案する。
本稿では,この課題に対するMLGデータセットを提案し,その評価のためにLayered Appearance Coherence difference (LACD) という新しい指標を提案する。
- 参考スコア(独自算出の注目度): 37.32099831689131
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing Image-based virtual try-on (VTON) methods primarily focus on single-layer or multi-garment VTON, neglecting multi-layer VTON (ML-VTON), which involves dressing multiple layers of garments onto the human body with realistic deformation and layering to generate visually plausible outcomes. The main challenge lies in accurately modeling occlusion relationships between inner and outer garments to reduce interference from redundant inner garment features. To address this, we propose GO-MLVTON, the first multi-layer VTON method, introducing the Garment Occlusion Learning module to learn occlusion relationships and the StableDiffusion-based Garment Morphing & Fitting module to deform and fit garments onto the human body, producing high-quality multi-layer try-on results. Additionally, we present the MLG dataset for this task and propose a new metric named Layered Appearance Coherence Difference (LACD) for evaluation. Extensive experiments demonstrate the state-of-the-art performance of GO-MLVTON. Project page: https://upyuyang.github.io/go-mlvton/.
- Abstract(参考訳): 既存の画像ベースの仮想試行法(VTON)は主に、現実的な変形と階層化を伴い、視覚的に妥当な結果を生み出す多層VTON(ML-VTON)を無視した単層または多層VTONに焦点を当てている。
主な課題は、不要な内装の特徴からの干渉を減らすために、内装と外装の間の閉塞関係を正確にモデル化することである。
そこで我々は,Garment Occlusion Learningモジュールを導入した最初の多層VTON法であるGO-MLVTONを提案する。
さらに,本課題に対するMLGデータセットを提案し,その評価のためにLayered Appearance Coherence difference (LACD) という新しい指標を提案する。
GO-MLVTONの最先端性能の実証実験を行った。
プロジェクトページ: https://upyuyang.github.io/go-mlvton/。
関連論文リスト
- MuGa-VTON: Multi-Garment Virtual Try-On via Diffusion Transformers with Prompt Customization [19.780800887427937]
我々は,上着と下着を共用した多目的拡散フレームワーク MuGa-VTON を紹介する。
このアーキテクチャはプロンプトベースのカスタマイズをサポートし、最小限のユーザ入力できめ細かい衣服の修正を可能にする。
論文 参考訳(メタデータ) (2025-08-11T21:45:07Z) - Undress to Redress: A Training-Free Framework for Virtual Try-On [19.00614787972817]
既存のVTONメソッドとシームレスに統合可能なトレーニングフリーフレームワークであるUR-VTON(Undress-Redress Virtual Try-ON)を提案する。
UR-VTON は 'undress-to-redress' というメカニズムを導入している。
また、長袖から短袖へのトライオンのための新しいベンチマークLS-TONも提示する。
論文 参考訳(メタデータ) (2025-08-11T06:55:49Z) - OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - CatVTON: Concatenation Is All You Need for Virtual Try-On with Diffusion Models [77.39903417768967]
CatVTONは仮想的な試着拡散モデルであり、任意のカテゴリーの衣服をターゲット個人に転送する。
CatVTONはVAEと単純化されたUNetのみで構成され、冗長な画像とテキストエンコーダを除去する。
実験により、CatVTONはベースライン法に比べて質的、定量的に優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-07-21T11:58:53Z) - OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable
Virtual Try-on [7.46772222515689]
OOTDiffusionは、リアルで制御可能なイメージベースの仮想トライオンのための新しいネットワークアーキテクチャである。
我々は、事前訓練された潜伏拡散モデルのパワーを活用し、UNetを設計して、衣服の詳細特徴を学習する。
VITON-HDおよびDress Codeデータセットに関する実験により、OOTDiffusionが効率よく高品質な試行結果を生成することを示した。
論文 参考訳(メタデータ) (2024-03-04T07:17:44Z) - Single Stage Multi-Pose Virtual Try-On [119.95115739956661]
Multi-pose Virtual try-on (MPVTON) は、ターゲットの服をターゲットのポーズで人に合わせることを目的としている。
MPVTONは、より良い試着体験を提供するが、二重の衣服と編集目的のポーズのため、さらに難しい。
既存の方法は、ターゲットセマンティックレイアウト予測モジュール、粗い試行画像生成装置、精細化試行画像生成装置を含む3つの不整合モジュールからなるパイプラインを採用する。
本稿では,TONのための新しい単一ステージモデルを提案する。我々のモデルにとってキーとなるのは,人物と衣服の画像の両方のフロー場を予測する並列フロー推定モジュールである。
論文 参考訳(メタデータ) (2022-11-19T15:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。