論文の概要: Learning Garment DensePose for Robust Warping in Virtual Try-On
- arxiv url: http://arxiv.org/abs/2303.17688v1
- Date: Thu, 30 Mar 2023 20:02:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 16:06:20.847887
- Title: Learning Garment DensePose for Robust Warping in Virtual Try-On
- Title(参考訳): 仮想試着におけるロバストウォーピングのためのガーメントDensePoseの学習
- Authors: Aiyu Cui, Sen He, Tao Xiang, Antoine Toisoul
- Abstract要約: そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
- 参考スコア(独自算出の注目度): 72.13052519560462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual try-on, i.e making people virtually try new garments, is an active
research area in computer vision with great commercial applications. Current
virtual try-on methods usually work in a two-stage pipeline. First, the garment
image is warped on the person's pose using a flow estimation network. Then in
the second stage, the warped garment is fused with the person image to render a
new try-on image. Unfortunately, such methods are heavily dependent on the
quality of the garment warping which often fails when dealing with hard poses
(e.g., a person lifting or crossing arms). In this work, we propose a robust
warping method for virtual try-on based on a learned garment DensePose which
has a direct correspondence with the person's DensePose. Due to the lack of
annotated data, we show how to leverage an off-the-shelf person DensePose model
and a pretrained flow model to learn the garment DensePose in a weakly
supervised manner. The garment DensePose allows a robust warping to any
person's pose without any additional computation. Our method achieves the
state-of-the-art equivalent on virtual try-on benchmarks and shows warping
robustness on in-the-wild person images with hard poses, making it more suited
for real-world virtual try-on applications.
- Abstract(参考訳): 仮想試着(virtual try-on、仮想試着)は、コンピュータビジョンにおける活発な研究分野であり、優れた商業的応用がある。
現在の仮想試行方法は、通常2段階のパイプラインで機能する。
まず、フロー推定ネットワークを用いて、衣服画像を人のポーズに反動させる。
そして、第2段では、歪んだ衣服を人物画像と融合させて新たな試着画像を描画する。
残念なことに、こうした手法は、ハードポーズ(例えば腕を持ち上げる、または交差する人)を扱うときにしばしば失敗する衣服のワープの品質に大きく依存している。
本研究では,DensePose と直接対応した学習衣服 DensePose に基づく仮想試行のための堅牢なワープ手法を提案する。
注釈データの欠如により,既設の人物密度分布モデルと事前学習フローモデルを用いて,被服密度分布を弱い教師付きで学習する方法を示す。
DensePoseは、任意の人のポーズに、余分な計算なしで堅牢なワープを可能にする。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現し,実世界の仮想試行アプリケーションに適していることを示す。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Street TryOn: Learning In-the-Wild Virtual Try-On from Unpaired Person Images [14.616371216662227]
仮想トライオンアプリケーションをサポートするためのStreetTryOnベンチマークを導入する。
また,一対のデータを必要とせず,一対の人物画像から直接仮想試行を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T18:59:02Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Significance of Skeleton-based Features in Virtual Try-On [3.7552180803118325]
textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
論文 参考訳(メタデータ) (2022-08-17T05:24:03Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - LGVTON: A Landmark Guided Approach to Virtual Try-On [4.617329011921226]
人物とモデルという2人のイメージから、モデルの服を着ている人の再考を生成する。
これは、ほとんどのeコマースウェブサイトでは、服のみのイメージが通常利用できないという事実を考えると便利である。
論文 参考訳(メタデータ) (2020-04-01T16:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。