論文の概要: Wearing the Same Outfit in Different Ways -- A Controllable Virtual
Try-on Method
- arxiv url: http://arxiv.org/abs/2211.16989v1
- Date: Tue, 29 Nov 2022 01:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:00:49.770430
- Title: Wearing the Same Outfit in Different Ways -- A Controllable Virtual
Try-on Method
- Title(参考訳): 異なる方法で同じ服を着る -- コントロール可能な仮想トライオンメソッド
- Authors: Kedan Li, Jeffrey Zhang, Shao-Yu Chang, David Forsyth
- Abstract要約: 衣料ビジュアライゼーション方法は、それらの衣料品の画像から、実際の衣料品を身に着けている人の画像を生成する。
現在の方法では、リアルに見え、衣服のアイデンティティを保ち、首輪、カフス、テクスチャ、ヘム、袖の長さといった細部で撮影できる。
本稿では,衣料品のアイデンティティを保ちながらドレープを制御する衣料ビジュアライゼーション手法について述べる。
- 参考スコア(独自算出の注目度): 9.176056742068813
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An outfit visualization method generates an image of a person wearing real
garments from images of those garments. Current methods can produce images that
look realistic and preserve garment identity, captured in details such as
collar, cuffs, texture, hem, and sleeve length. However, no current method can
both control how the garment is worn -- including tuck or untuck, opened or
closed, high or low on the waist, etc.. -- and generate realistic images that
accurately preserve the properties of the original garment. We describe an
outfit visualization method that controls drape while preserving garment
identity. Our system allows instance independent editing of garment drape,
which means a user can construct an edit (e.g. tucking a shirt in a specific
way) that can be applied to all shirts in a garment collection. Garment detail
is preserved by relying on a warping procedure to place the garment on the body
and a generator then supplies fine shading detail. To achieve instance
independent control, we use control points with garment category-level
semantics to guide the warp. The method produces state-of-the-art quality
images, while allowing creative ways to style garments, including allowing tops
to be tucked or untucked; jackets to be worn open or closed; skirts to be worn
higher or lower on the waist; and so on. The method allows interactive control
to correct errors in individual renderings too. Because the edits are instance
independent, they can be applied to large pools of garments automatically and
can be conditioned on garment metadata (e.g. all cropped jackets are worn
closed or all bomber jackets are worn closed).
- Abstract(参考訳): 衣服の可視化手法は、その衣服の画像から、実際の衣服を着ている人の画像を生成する。
現在の方法では、リアルに見え、衣服のアイデンティティを保ち、首輪、カフス、テクスチャ、ヘム、袖の長さといった細部で撮影できる。
しかし、現在の方法では、タックやアンタック、開閉、腰の高さや低さなど、衣服の着用方法を制御できないため、元の衣服の特性を正確に保存するリアルな画像を生成することができる。
服の同一性を維持しつつドレープを制御する服の可視化手法について述べる。
このシステムでは、衣服のドレープを個別に編集することができるため、ユーザーは衣服コレクション内のすべてのシャツに適用可能な編集(例えば、特定の方法でシャツを収納するなど)を構築できる。
衣服を体に置くための反りの手順に頼って衣服の細部を保存し、発電機が細かなシェーディングの細部を供給する。
インスタンス独立制御を実現するために,着衣カテゴリレベルのセマンティクスを持つ制御ポイントを用いてワープを誘導する。
上着を脱ぐ、上着を外す、上着を外す、下着を腰に上着、下着を下着する、などの創造的なスタイルで、最先端のクオリティのイメージを製作する。
この方法では、インタラクティブな制御によって個々のレンダリングのエラーを修正できる。
編集はインスタンスに依存しないため、自動的に大きな衣類のプールに適用でき、衣服のメタデータ(例えば、すべてのクロッピングジャケットが閉じられたり、すべての爆撃機ジャケットが閉じられたりする)で調整することができる。
関連論文リスト
- IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - TryOnDiffusion: A Tale of Two UNets [46.54704157349114]
相手の着る服と着る服の2つの画像が与えられた場合、私たちのゴールは、入力された人の着る服がどう見えるかを視覚化することである。
重要な課題は、重要な身体のポーズと形状の変化に対応するために衣服を歪めながら、衣服の細部保存の可視化を合成することである。
2つのUNETを統一する拡散型アーキテクチャ(Parallel-UNet参照)を提案する。
論文 参考訳(メタデータ) (2023-06-14T06:25:58Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Controllable Garment Transfer [0.726437825413781]
画像に基づく衣服転送は、対象の人間の衣服を所望の衣服に置き換える。
我々は,スリーブ長,腰幅,衣服のテクスチャなどの衣服特性を制御するために,この「ガーメント調整」のカスタマイズ可能なオプションを,我々のモデルに追加することを目指している。
論文 参考訳(メタデータ) (2022-04-05T03:43:21Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Dressing in Order: Recurrent Person Image Generation for Pose Transfer,
Virtual Try-on and Outfit Editing [15.764620091391603]
本稿では,Dressing in Order(DiOr)という柔軟な人生成フレームワークを提案する。
2Dポーズ転送、仮想試着、およびいくつかのファッション編集タスクをサポートします。
論文 参考訳(メタデータ) (2021-04-14T17:58:54Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。