論文の概要: GarmentGAN: Photo-realistic Adversarial Fashion Transfer
- arxiv url: http://arxiv.org/abs/2003.01894v1
- Date: Wed, 4 Mar 2020 05:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:07:28.513376
- Title: GarmentGAN: Photo-realistic Adversarial Fashion Transfer
- Title(参考訳): GarmentGAN:フォトリアリスティック対応ファッショントランスファー
- Authors: Amir Hossein Raffiee, Michael Sollami
- Abstract要約: GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The garment transfer problem comprises two tasks: learning to separate a
person's body (pose, shape, color) from their clothing (garment type, shape,
style) and then generating new images of the wearer dressed in arbitrary
garments. We present GarmentGAN, a new algorithm that performs image-based
garment transfer through generative adversarial methods. The GarmentGAN
framework allows users to virtually try-on items before purchase and
generalizes to various apparel types. GarmentGAN requires as input only two
images, namely, a picture of the target fashion item and an image containing
the customer. The output is a synthetic image wherein the customer is wearing
the target apparel. In order to make the generated image look photo-realistic,
we employ the use of novel generative adversarial techniques. GarmentGAN
improves on existing methods in the realism of generated imagery and solves
various problems related to self-occlusions. Our proposed model incorporates
additional information during training, utilizing both segmentation maps and
body key-point information. We show qualitative and quantitative comparisons to
several other networks to demonstrate the effectiveness of this technique.
- Abstract(参考訳): 衣服転送問題は、人の体(目的、形状、色)を衣服(衣服の種類、形状、スタイル)から分離する学習と、任意の衣服に身を包んだ着用者の新しい画像を生成する2つの課題を含む。
そこで本研究では,画像ベースの衣服転送を行う新しいアルゴリズムである clothinggan を提案する。
GarmentGANフレームワークは、購入前に仮想的なアイテムの試行と、さまざまなアパレルタイプへの一般化を可能にする。
衣料品は、対象品目の画像と顧客を含む画像の2つの画像のみを入力として要求される。
出力は、顧客がターゲットのアパレルを着ている合成画像である。
生成した画像が写実的に見えるようにするために, 新規な生成的対角法を用いる。
GarmentGANは、生成画像のリアリズムにおける既存の手法を改善し、自己閉塞に関する様々な問題を解決する。
提案モデルは,セグメンテーションマップとボディーキーポイント情報の両方を利用して,トレーニング中に追加情報を取り込む。
本手法の有効性を示すために,他のネットワークとの比較を行った。
関連論文リスト
- IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Masked Extended Attention for Zero-Shot Virtual Try-On In The Wild [17.025262797698364]
仮想トライオン(Virtual Try-On)は、人物や衣服の特徴を保ちながら、画像中の衣服を別のものに置き換えることを目的としている。
現在の文献では、タスクの教師付きアプローチを採用し、一般化を損なうとともに、重い計算を課している。
本稿では,衣服の着衣を参考に塗布するためのゼロショットトレーニングフリーな新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T17:45:37Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - TryOnDiffusion: A Tale of Two UNets [46.54704157349114]
相手の着る服と着る服の2つの画像が与えられた場合、私たちのゴールは、入力された人の着る服がどう見えるかを視覚化することである。
重要な課題は、重要な身体のポーズと形状の変化に対応するために衣服を歪めながら、衣服の細部保存の可視化を合成することである。
2つのUNETを統一する拡散型アーキテクチャ(Parallel-UNet参照)を提案する。
論文 参考訳(メタデータ) (2023-06-14T06:25:58Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - Toward Accurate and Realistic Outfits Visualization with Attention to
Details [10.655149697873716]
商用アプリケーションに必要な重要な視覚的詳細を捉えるために,アウトフィット・ビジュアライゼーション・ネットを提案する。
OVNetは,1)意味的レイアウト生成器と2)複数の協調ワープを用いた画像生成パイプラインから構成される。
この手法を利用した対話型インターフェースは,ファッションeコマースのウェブサイトに展開され,圧倒的に肯定的なフィードバックを受けている。
論文 参考訳(メタデータ) (2021-06-11T19:53:34Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content [85.24260811659094]
本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
論文 参考訳(メタデータ) (2020-03-12T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。