論文の概要: VOGUE: Try-On by StyleGAN Interpolation Optimization
- arxiv url: http://arxiv.org/abs/2101.02285v1
- Date: Wed, 6 Jan 2021 22:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 00:04:08.243112
- Title: VOGUE: Try-On by StyleGAN Interpolation Optimization
- Title(参考訳): VOGUE: StyleGAN補間最適化によるトライオン
- Authors: Kathleen M Lewis, Srivatsan Varadharajan, Ira Kemelmacher-Shlizerman
- Abstract要約: 対象者の画像と衣服を身に着けている人の画像から、対象の衣服を自動的に生成する。
提案手法の核心はポーズ条件付きstylegan2潜在空間であり,各画像からの関心領域をシームレスに結合する。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
- 参考スコア(独自算出の注目度): 14.327659393182204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an image of a target person and an image of another person wearing a
garment, we automatically generate the target person in the given garment. At
the core of our method is a pose-conditioned StyleGAN2 latent space
interpolation, which seamlessly combines the areas of interest from each image,
i.e., body shape, hair, and skin color are derived from the target person,
while the garment with its folds, material properties, and shape comes from the
garment image. By automatically optimizing for interpolation coefficients per
layer in the latent space, we can perform a seamless, yet true to source,
merging of the garment and target person. Our algorithm allows for garments to
deform according to the given body shape, while preserving pattern and material
details. Experiments demonstrate state-of-the-art photo-realistic results at
high resolution ($512\times 512$).
- Abstract(参考訳): 対象者の画像と衣服を身に着けている人の画像が与えられた場合、対象者の衣服を自動生成する。
本手法の核となるのはポーズ条件付きStyleGAN2潜時空間補間であり,各画像からの関心領域,すなわち体形,毛髪,肌の色をシームレスに結合し,衣服の折りたたみ,材質,形状は衣服画像から得られる。
潜在空間における層毎の補間係数を自動的に最適化することにより、衣服と対象人物の融合をシームレスに行うことができる。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
実験は、最先端のフォトリアリスティックな結果を高解像度で実証する(512\times 512$)。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - TryOnDiffusion: A Tale of Two UNets [46.54704157349114]
相手の着る服と着る服の2つの画像が与えられた場合、私たちのゴールは、入力された人の着る服がどう見えるかを視覚化することである。
重要な課題は、重要な身体のポーズと形状の変化に対応するために衣服を歪めながら、衣服の細部保存の可視化を合成することである。
2つのUNETを統一する拡散型アーキテクチャ(Parallel-UNet参照)を提案する。
論文 参考訳(メタデータ) (2023-06-14T06:25:58Z) - Layered-Garment Net: Generating Multiple Implicit Garment Layers from a
Single Image [8.221518970067288]
LGN(Layered-Garment Net)は、1枚の画像から人体に交叉のない複数層の衣服を生成できる。
われわれの知る限りでは、LGNは1枚の画像から、交差点のない複数の衣服の層を人体に生成する最初の研究である。
論文 参考訳(メタデータ) (2022-11-22T00:55:42Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。