論文の概要: Dressing in Order: Recurrent Person Image Generation for Pose Transfer,
Virtual Try-on and Outfit Editing
- arxiv url: http://arxiv.org/abs/2104.07021v1
- Date: Wed, 14 Apr 2021 17:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:13:34.038353
- Title: Dressing in Order: Recurrent Person Image Generation for Pose Transfer,
Virtual Try-on and Outfit Editing
- Title(参考訳): Dressing in Order: Recurrent Person Image Generation for Pose Transfer, Virtual Try-on and Outfit Editing
- Authors: Aiyu Cui, Daniel McKee, Svetlana Lazebnik
- Abstract要約: 本稿では,Dressing in Order(DiOr)という柔軟な人生成フレームワークを提案する。
2Dポーズ転送、仮想試着、およびいくつかのファッション編集タスクをサポートします。
- 参考スコア(独自算出の注目度): 15.764620091391603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a flexible person generation framework called Dressing in
Order (DiOr), which supports 2D pose transfer, virtual try-on, and several
fashion editing tasks. Key to DiOr is a novel recurrent generation pipeline to
sequentially put garments on a person, so that trying on the same garments in
different orders will result in different looks. Our system can produce
dressing effects not achievable by existing work, including different
interactions of garments (e.g., wearing a top tucked into the bottom or over
it), as well as layering of multiple garments of the same type (e.g., jacket
over shirt over t-shirt). DiOr explicitly encodes the shape and texture of each
garment, enabling these elements to be edited separately. Joint training on
pose transfer and inpainting helps with detail preservation and coherence of
generated garments. Extensive evaluations show that DiOr outperforms other
recent methods like ADGAN in terms of output quality, and handles a wide range
of editing functions for which there is no direct supervision.
- Abstract(参考訳): 本稿では,2次元ポーズ転送,仮想試行,ファッション編集タスクをサポートするDressing in Order(DiOr)と呼ばれるフレキシブルな人物生成フレームワークを提案する。
キー・トゥ・ダイオール(Key to DiOr)は、連続して衣服を身につける新しい生成パイプラインで、異なる順序で同じ衣服を試すと、異なる外観になる。
既存の作業では達成不可能なドレッシング効果が得られており、例えば、上着(下着、上着など)の異なる相互作用や、同じタイプの複数の衣服(Tシャツの上着など)の層化が可能である。
DiOrは、それぞれの衣服の形状とテクスチャを明示的にエンコードし、これらの要素を別々に編集することができる。
ポーズ転送と塗装に関する共同トレーニングは、生成された衣服の詳細な保存とコヒーレンスに役立つ。
大規模な評価では、DiOrは出力品質においてADGANのような最近の他の手法よりも優れており、直接の監督がない幅広い編集機能を扱う。
関連論文リスト
- IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - TryOnDiffusion: A Tale of Two UNets [46.54704157349114]
相手の着る服と着る服の2つの画像が与えられた場合、私たちのゴールは、入力された人の着る服がどう見えるかを視覚化することである。
重要な課題は、重要な身体のポーズと形状の変化に対応するために衣服を歪めながら、衣服の細部保存の可視化を合成することである。
2つのUNETを統一する拡散型アーキテクチャ(Parallel-UNet参照)を提案する。
論文 参考訳(メタデータ) (2023-06-14T06:25:58Z) - Transformer-based Graph Neural Networks for Outfit Generation [22.86041284499166]
TGNNは、畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして、多面的な自己注意を利用して、グラフ内の衣服アイテム間の関係をキャプチャする。
畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして,多面的な自己注意を利用して,グラフ内の衣服アイテム間の関係をキャプチャするトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-17T09:18:45Z) - Wearing the Same Outfit in Different Ways -- A Controllable Virtual
Try-on Method [9.176056742068813]
衣料ビジュアライゼーション方法は、それらの衣料品の画像から、実際の衣料品を身に着けている人の画像を生成する。
現在の方法では、リアルに見え、衣服のアイデンティティを保ち、首輪、カフス、テクスチャ、ヘム、袖の長さといった細部で撮影できる。
本稿では,衣料品のアイデンティティを保ちながらドレープを制御する衣料ビジュアライゼーション手法について述べる。
論文 参考訳(メタデータ) (2022-11-29T01:01:01Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。