論文の概要: MGT: Extending Virtual Try-Off to Multi-Garment Scenarios
- arxiv url: http://arxiv.org/abs/2504.13078v2
- Date: Fri, 11 Jul 2025 08:51:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 14:01:05.482976
- Title: MGT: Extending Virtual Try-Off to Multi-Garment Scenarios
- Title(参考訳): MGT: 仮想トライオフをマルチゲージシナリオに拡張
- Authors: Riza Velioglu, Petra Bevandic, Robin Chan, Barbara Hammer,
- Abstract要約: 本稿では,多様な衣料品を扱える拡散型VTOFFモデルであるMulti-Garment TryOffDiff(MGT)を紹介する。
MGTはクラス固有の埋め込みを導入し、VITON-HDの最先端のVTOFF結果とDressCodeの競合性能を実現している。
- 参考スコア(独自算出の注目度): 8.158200403139196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision is transforming fashion industry through Virtual Try-On (VTON) and Virtual Try-Off (VTOFF). VTON generates images of a person in a specified garment using a target photo and a standardized garment image, while a more challenging variant, Person-to-Person Virtual Try-On (p2p-VTON), uses a photo of another person wearing the garment. VTOFF, in contrast, extracts standardized garment images from photos of clothed individuals. We introduce Multi-Garment TryOffDiff (MGT), a diffusion-based VTOFF model capable of handling diverse garment types, including upper-body, lower-body, and dresses. MGT builds on a latent diffusion architecture with SigLIP-based image conditioning to capture garment characteristics such as shape, texture, and pattern. To address garment diversity, MGT incorporates class-specific embeddings, achieving state-of-the-art VTOFF results on VITON-HD and competitive performance on DressCode. When paired with VTON models, it further enhances p2p-VTON by reducing unwanted attribute transfer, such as skin tone, ensuring preservation of person-specific characteristics. Demo, code, and models are available at: https://rizavelioglu.github.io/tryoffdiff/
- Abstract(参考訳): コンピュータビジョンは、VTON(Virtual Try-On)とVTOFF(Virtual Try-Off)を通じてファッション産業を変えつつある。
VTONは、目標写真と標準化された衣服画像を用いて特定衣服の人物の画像を生成し、より困難なバリエーションであるPerson-to-Person Virtual Try-On(p2p−VTON)は、この衣服を身に着けている他の人の写真を使用する。
対照的にVTOFFは、着用者の写真から標準化された衣服画像を抽出する。
拡散型VTOFFモデルとして,上半身,下半身,ドレスなど多様な衣料品を扱えるMulti-Garment TryOffDiff(MGT)を提案する。
MGTは、SigLIPベースのイメージコンディショニングによる潜伏拡散アーキテクチャに基づいて、形状、テクスチャ、パターンなどの衣服特性をキャプチャする。
衣料の多様性に対処するため、MGTはクラス固有の埋め込みを導入し、VITON-HDの最先端のVTOFF結果とDressCodeの競合性能を実現した。
VTONモデルと組み合わせると、皮膚のトーンのような望ましくない特性の伝達を減らし、人特有の特性の保存を確保することにより、p2p-VTONをさらに強化する。
デモ、コード、モデルは、https://rizavelioglu.github.io/tryoffdiff/.com/で入手できる。
関連論文リスト
- OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - Limb-Aware Virtual Try-On Network with Progressive Clothing Warping [64.84181064722084]
画像ベースの仮想試着は、ショップ内服の画像を人物画像に転送することを目的としている。
既存のほとんどの方法では、服の反りを直接行うために単一のグローバルな変形が採用されている。
PL-VTONと命名されたLmb-Aware Virtual Try-on Networkを提案する。
論文 参考訳(メタデータ) (2025-03-18T09:52:41Z) - MFP-VTON: Enhancing Mask-Free Person-to-Person Virtual Try-On via Diffusion Transformer [5.844515709826269]
Garment-to-person virtual try-on (VTON) は、基準服を着用している人の適合した画像を生成することを目的としている。
そこで我々はPerson-to-Person VTONのためのMask-Freeフレームワークを提案する。
我々のモデルは、人・人・物の両方のVTONタスクに優れ、高忠実度適合画像を生成する。
論文 参考訳(メタデータ) (2025-02-03T18:56:24Z) - Any2AnyTryon: Leveraging Adaptive Position Embeddings for Versatile Virtual Clothing Tasks [31.461116368933165]
画像ベースの仮想試行(VTON)は、入力された衣服を対象者の画像に転送することで仮想試行結果を生成することを目的としている。
組合わせ型衣料品データの不足は,VTONの高一般化と品質を実現する既存手法を困難にしている。
そこで,AnyTryonを提案する。AnyTryonは,異なるテキスト命令とモデル衣料品画像に基づいて試着結果を生成することができる。
論文 参考訳(メタデータ) (2025-01-27T09:33:23Z) - TryOffDiff: Virtual-Try-Off via High-Fidelity Garment Reconstruction using Diffusion Models [8.158200403139196]
本報告では,仮想トライオフ(Virtual Try-Off, VTOFF)について紹介する。
本稿では,SigLIPに基づく視覚条件付き安定拡散モデルTryOffDiffを提案する。
本研究は,電子商取引アプリケーションにおける製品イメージの向上,生成モデル評価の進展,高忠実度再構築に向けた今後の取り組みを示唆するものである。
論文 参考訳(メタデータ) (2024-11-27T13:53:09Z) - Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person [38.69239957207417]
OutfitAnyoneは、バーチャル衣料品のトライアルのために、高忠実でディテールに一貫性のある画像を生成する。
ポーズ、ボディシェイプ、広範囲な適用性など、スケーラビリティを規定する要因を自分自身と区別する。
さまざまなシナリオにおけるOutfitAnyoneのパフォーマンスは、実世界のデプロイに対する実用性と準備性を示している。
論文 参考訳(メタデータ) (2024-07-23T07:04:42Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - M&M VTO: Multi-Garment Virtual Try-On and Editing [31.45715245587691]
M&M VTO(M&M VTO)は、複数の衣料品画像、衣服レイアウトのためのテキスト記述、人物のイメージを入力として利用する、ミックス・アンド・マッチ方式の仮想試行法である。
例としては、シャツのイメージ、ズボンのペアの画像、"ローリングスリーブ、シャツの入れ墨"、人物のイメージなどがある。
アウトプットは、その衣服(望ましいレイアウト)が特定の人にどのように見えるかを視覚化するものだ。
論文 参考訳(メタデータ) (2024-06-06T22:46:37Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。