論文の概要: EVTAR: End-to-End Try on with Additional Unpaired Visual Reference
- arxiv url: http://arxiv.org/abs/2511.00956v1
- Date: Sun, 02 Nov 2025 14:32:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.004977
- Title: EVTAR: End-to-End Try on with Additional Unpaired Visual Reference
- Title(参考訳): EVTAR: 未完成のビジュアル参照を追加してエンドツーエンドで試す
- Authors: Liuzhuozheng Li, Yue Gong, Shanyuan Liu, Bo Cheng, Yuhang Ma, Liebucha Wu, Dengyang Jiang, Zanyi Wang, Dawei Leng, Yuhui Yin,
- Abstract要約: 本稿では,付加参照を用いたエンド・ツー・エンド仮想試行モデルEVTARを提案する。
我々のモデルはマスクや密着、セグメンテーションマップを使わずに試行結果を生成する。
我々は、これらの機能をサポートするために、補足的参照と不自由な人物画像でトレーニングデータを豊かにします。
- 参考スコア(独自算出の注目度): 16.702488896886845
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose EVTAR, an End-to-End Virtual Try-on model with Additional Reference, that directly fits the target garment onto the person image while incorporating reference images to enhance try-on accuracy. Most existing virtual try-on approaches rely on complex inputs such as agnostic person images, human pose, densepose, or body keypoints, making them labor-intensive and impractical for real-world applications. In contrast, EVTAR adopts a two-stage training strategy, enabling simple inference with only the source image and the target garment inputs. Our model generates try-on results without masks, densepose, or segmentation maps. Moreover, EVTAR leverages additional reference images of different individuals wearing the same clothes to preserve garment texture and fine-grained details better. This mechanism is analogous to how humans consider reference models when choosing outfits, thereby simulating a more realistic and high-quality dressing effect. We enrich the training data with supplementary references and unpaired person images to support these capabilities. We evaluate EVTAR on two widely used benchmarks and diverse tasks, and the results consistently validate the effectiveness of our approach.
- Abstract(参考訳): 提案するEVTAR(End-to-End Virtual Try-on model with Add Reference)は,対象の衣服を直接人物画像に適合させ,参照画像を取り入れて試着精度を向上させる。
既存のバーチャル・トライオンのアプローチのほとんどは、無知な人像、人間のポーズ、密集、身体のキーポイントといった複雑な入力に依存しており、現実の応用には労働集約的で実用的ではない。
対照的にEVTARは2段階のトレーニング戦略を採用しており、ソース画像とターゲットの衣服入力のみで単純な推論を可能にする。
我々のモデルはマスクや密着、セグメンテーションマップを使わずに試行結果を生成する。
さらにEVTARは、同じ服を着ている異なる個人の参照画像を利用して、衣服のテクスチャときめ細かいディテールをよりよく保存する。
このメカニズムは、人間が衣装を選ぶ際に参照モデルを考える方法と類似しており、それによってより現実的で高品質なドレッシング効果をシミュレートする。
我々は、これらの機能をサポートするために、補足的参照と不自由な人物画像でトレーニングデータを豊かにします。
EVTARを2つの広く使用されているベンチマークと多種多様なタスクで評価し,提案手法の有効性を一貫して検証した。
関連論文リスト
- One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose [99.056324701764]
textbfOMFA (emphOne Model For All) は仮想トライオンとトライオフの両方のための統合拡散フレームワークである。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要とします。
試着タスクと試着タスクの両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-08-06T15:46:01Z) - Enhancing Virtual Try-On with Synthetic Pairs and Error-Aware Noise Scheduling [20.072689146353348]
本研究では,着物の単一画像から(人間,合成衣服)対を生成する衣服抽出モデルを提案する。
また,局所的な生成誤りを外科的にターゲットとした誤り認識型Schr"odinger Bridge(EARSB)を提案する。
ユーザスタディでは,平均59%のケースで,このモデルが好まれる。
論文 参考訳(メタデータ) (2025-01-08T18:25:50Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。