論文の概要: A Novel Garment Transfer Method Supervised by Distilled Knowledge of
Virtual Try-on Model
- arxiv url: http://arxiv.org/abs/2401.12433v1
- Date: Tue, 23 Jan 2024 01:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:21:00.234168
- Title: A Novel Garment Transfer Method Supervised by Distilled Knowledge of
Virtual Try-on Model
- Title(参考訳): 仮想試着モデルの蒸留知識に基づく新しい衣料移送法
- Authors: Naiyu Fang, Lemiao Qiu, Shuyou Zhang, Zili Wang, Kerui Hu, Jianrong
Tan
- Abstract要約: ガーメントトランスファー技術は、モデル画像から買い物客のイメージに衣服を装着し、買い物客が自分に適した服かどうかを判断できるようにする。
我々は、下流タスクのための形状ガイダンスを提供するために、多相転写解析推論モデルを訓練する。
仮想的な試行錯誤から知識のゆるぎを生かして,衣服を正確にワープする進行流を推定する。
- 参考スコア(独自算出の注目度): 7.321376471374719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a shopper chooses garments online, garment transfer technology wears the
garment from the model image onto the shopper's image, allowing the shopper to
decide whether the garment is suitable for them. As garment transfer leverages
wild and cheap person image as garment condition, it has attracted tremendous
community attention and holds vast commercial potential. However, since the
ground truth of garment transfer is almost unavailable in reality, previous
studies have treated garment transfer as either pose transfer or garment-pose
disentanglement, and trained garment transfer in self-supervised learning, yet
do not cover garment transfer intentions completely. Therefore, the training
supervising the garment transfer is a rock-hard issue. Notably, virtual try-on
technology has exhibited superior performance using self-supervised learning.
We supervise the garment transfer training via knowledge distillation from
virtual try-on. Specifically, we first train the transfer parsing reasoning
model at multi-phases to provide shape guidance for downstream tasks. The
transfer parsing reasoning model learns the response and feature knowledge from
the try-on parsing reasoning model and absorbs the hard knowledge from the
ground truth. By leveraging the warping knowledge from virtual try-on, we
estimate a progressive flow to precisely warp the garment by learning the shape
and content correspondence. To enhance transfer realism, we propose a
well-designed arm regrowth task to infer exposed skin pixel content.
Experiments demonstrate that our method has state-of-the-art performance in
transferring garments between person compared with other virtual try-on and
garment transfer methods.
- Abstract(参考訳): 買い物客がオンラインで衣料品を選択すると、その衣料品を模型画像から買い物客の画像に当てはめ、買い物客が着物に相応しいかどうかを判断する。
衣服の移動は、野生で安価な人物像を衣料条件として活用するので、コミュニティの注目を惹きつけ、大きな商業的可能性を秘めている。
しかし、衣料移転の根拠は現実ではほとんど利用できないため、従来の研究では、衣料移転をポーズ移動または衣服配置の不連続として扱っており、訓練された衣料移転は自己監督学習で行われているが、衣料移転の意図を完全にはカバーしていない。
したがって、衣料移転を監督する訓練は岩の難題である。
特に、仮想トライオン技術は、自己教師付き学習を用いて優れた性能を示した。
仮想試行による知識蒸留による衣服移動訓練を監督する。
具体的には,トランスファー解析推論モデルをマルチフェーズでトレーニングし,下流タスクの形状指導を行う。
伝達解析推論モデルは、トライオン解析推論モデルから応答と特徴知識を学習し、基礎真理からハード知識を吸収する。
仮想的な試行錯誤から知識のゆらぎを生かし,その形状と内容の対応を学習することにより,衣服を正確にワープするプログレッシブフローを推定する。
転写リアリズムを高めるために,露出した皮膚画素を推測する腕再成長タスクを提案する。
実験により,本手法は,他の仮想試着法や衣服の移動法と比較して,被服の移動における最先端性能を有することが示された。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Improving Diffusion Models for Virtual Try-on [57.893391816847405]
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
IDM-VTONと呼ばれる本手法は,2つの異なるモジュールを用いて衣料画像の意味を符号化する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。