論文の概要: Enhancing Person-to-Person Virtual Try-On with Multi-Garment Virtual Try-Off
- arxiv url: http://arxiv.org/abs/2504.13078v1
- Date: Thu, 17 Apr 2025 16:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:36.968966
- Title: Enhancing Person-to-Person Virtual Try-On with Multi-Garment Virtual Try-Off
- Title(参考訳): マルチゲージ仮想トライオフによる対人バーチャルトライオンの強化
- Authors: Riza Velioglu, Petra Bevandic, Robin Chan, Barbara Hammer,
- Abstract要約: コンピュータビジョンは、仮想トライオンと仮想トライオフを通じてファッションを変えつつある。
VTONは、対象写真と標準化された衣服画像とを用いて、指定された衣服の人物の画像を生成する。
一方、VTOFFは、衣服の個人から標準化された衣服イメージを抽出する。
本稿では拡散型VTOFFモデルであるTryOffDiffを紹介する。
- 参考スコア(独自算出の注目度): 8.158200403139196
- License:
- Abstract: Computer vision is transforming fashion through Virtual Try-On (VTON) and Virtual Try-Off (VTOFF). VTON generates images of a person in a specified garment using a target photo and a standardized garment image, while a more challenging variant, Person-to-Person Virtual Try-On (p2p-VTON), uses a photo of another person wearing the garment. VTOFF, on the other hand, extracts standardized garment images from clothed individuals. We introduce TryOffDiff, a diffusion-based VTOFF model. Built on a latent diffusion framework with SigLIP image conditioning, it effectively captures garment properties like texture, shape, and patterns. TryOffDiff achieves state-of-the-art results on VITON-HD and strong performance on DressCode dataset, covering upper-body, lower-body, and dresses. Enhanced with class-specific embeddings, it pioneers multi-garment VTOFF, the first of its kind. When paired with VTON models, it improves p2p-VTON by minimizing unwanted attribute transfer, such as skin color. Code is available at: https://rizavelioglu.github.io/tryoffdiff/
- Abstract(参考訳): コンピュータビジョンは、VTON(Virtual Try-On)とVTOFF(Virtual Try-Off)を通じて、ファッションを変えつつある。
VTONは、目標写真と標準化された衣服画像を用いて特定衣服の人物の画像を生成し、より困難なバリエーションであるPerson-to-Person Virtual Try-On(p2p−VTON)は、この衣服を身に着けている他の人の写真を使用する。
一方、VTOFFは、衣服の個人から標準化された衣服イメージを抽出する。
本稿では拡散型VTOFFモデルであるTryOffDiffを紹介する。
SigLIPイメージコンディショニングを備えた潜在拡散フレームワーク上に構築され、テクスチャ、形状、パターンなどの衣服特性を効果的にキャプチャする。
TryOffDiffは、VITON-HDの最先端結果と、DressCodeデータセットの強力なパフォーマンスを実現し、上半身、下半身、ドレスをカバーしている。
クラス固有の埋め込みによって強化され、この種の最初のマルチガーメントVTOFFのパイオニアとなった。
VTONモデルと組み合わせると、肌の色などの不要な属性転送を最小限にすることで、p2p-VTONを改善する。
コードは、https://rizavelioglu.github.io/tryoffdiff/で入手できる。
関連論文リスト
- MFP-VTON: Enhancing Mask-Free Person-to-Person Virtual Try-On via Diffusion Transformer [5.844515709826269]
Garment-to-person virtual try-on (VTON) は、基準服を着用している人の適合した画像を生成することを目的としている。
そこで我々はPerson-to-Person VTONのためのMask-Freeフレームワークを提案する。
我々のモデルは、人・人・物の両方のVTONタスクに優れ、高忠実度適合画像を生成する。
論文 参考訳(メタデータ) (2025-02-03T18:56:24Z) - Any2AnyTryon: Leveraging Adaptive Position Embeddings for Versatile Virtual Clothing Tasks [31.461116368933165]
画像ベースの仮想試行(VTON)は、入力された衣服を対象者の画像に転送することで仮想試行結果を生成することを目的としている。
組合わせ型衣料品データの不足は,VTONの高一般化と品質を実現する既存手法を困難にしている。
そこで,AnyTryonを提案する。AnyTryonは,異なるテキスト命令とモデル衣料品画像に基づいて試着結果を生成することができる。
論文 参考訳(メタデータ) (2025-01-27T09:33:23Z) - TryOffDiff: Virtual-Try-Off via High-Fidelity Garment Reconstruction using Diffusion Models [8.158200403139196]
本報告では,仮想トライオフ(Virtual Try-Off, VTOFF)について紹介する。
本稿では,SigLIPに基づく視覚条件付き安定拡散モデルTryOffDiffを提案する。
本研究は,電子商取引アプリケーションにおける製品イメージの向上,生成モデル評価の進展,高忠実度再構築に向けた今後の取り組みを示唆するものである。
論文 参考訳(メタデータ) (2024-11-27T13:53:09Z) - Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person [38.69239957207417]
OutfitAnyoneは、バーチャル衣料品のトライアルのために、高忠実でディテールに一貫性のある画像を生成する。
ポーズ、ボディシェイプ、広範囲な適用性など、スケーラビリティを規定する要因を自分自身と区別する。
さまざまなシナリオにおけるOutfitAnyoneのパフォーマンスは、実世界のデプロイに対する実用性と準備性を示している。
論文 参考訳(メタデータ) (2024-07-23T07:04:42Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。