論文の概要: TryOnDiffusion: A Tale of Two UNets
- arxiv url: http://arxiv.org/abs/2306.08276v1
- Date: Wed, 14 Jun 2023 06:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 20:16:24.896427
- Title: TryOnDiffusion: A Tale of Two UNets
- Title(参考訳): TryOnDiffusion: 2つのユニペットの物語
- Authors: Luyang Zhu, Dawei Yang, Tyler Zhu, Fitsum Reda, William Chan, Chitwan
Saharia, Mohammad Norouzi, Ira Kemelmacher-Shlizerman
- Abstract要約: 相手の着る服と着る服の2つの画像が与えられた場合、私たちのゴールは、入力された人の着る服がどう見えるかを視覚化することである。
重要な課題は、重要な身体のポーズと形状の変化に対応するために衣服を歪めながら、衣服の細部保存の可視化を合成することである。
2つのUNETを統一する拡散型アーキテクチャ(Parallel-UNet参照)を提案する。
- 参考スコア(独自算出の注目度): 46.54704157349114
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Given two images depicting a person and a garment worn by another person, our
goal is to generate a visualization of how the garment might look on the input
person. A key challenge is to synthesize a photorealistic detail-preserving
visualization of the garment, while warping the garment to accommodate a
significant body pose and shape change across the subjects. Previous methods
either focus on garment detail preservation without effective pose and shape
variation, or allow try-on with the desired shape and pose but lack garment
details. In this paper, we propose a diffusion-based architecture that unifies
two UNets (referred to as Parallel-UNet), which allows us to preserve garment
details and warp the garment for significant pose and body change in a single
network. The key ideas behind Parallel-UNet include: 1) garment is warped
implicitly via a cross attention mechanism, 2) garment warp and person blend
happen as part of a unified process as opposed to a sequence of two separate
tasks. Experimental results indicate that TryOnDiffusion achieves
state-of-the-art performance both qualitatively and quantitatively.
- Abstract(参考訳): 他者が着ている人物と衣服のイメージが2つある場合、私たちのゴールは、入力された人の衣服がどのように見えるかを可視化することです。
重要な課題は、被服の写実的な細部保存の可視化を合成し、被服に重要な身体のポーズと形状の変化を適応させる。
それまでの方法は、効果的なポーズや形状の変化を伴わずに衣服の細部保存に焦点を合わせるか、望ましい形状で試してみるか、衣服の細部を欠くかのどちらかであった。
本稿では,2つのunets(parallel-unet と呼ぶ)を統一した拡散ベースのアーキテクチャを提案する。
Parallel-UNetの背景にある主要なアイデアは以下のとおりである。
1)衣服はクロスアテンション機構によって暗黙的に反動される。
2) 衣服ワープと人物ブレンドは,2つの異なるタスクのシーケンスとは対照的に,統一プロセスの一部として発生する。
実験の結果,tryondiffusionは定性的にも定量的にも最先端のパフォーマンスを達成できた。
関連論文リスト
- Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Garment4D: Garment Reconstruction from Point Cloud Sequences [12.86951061306046]
異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
論文 参考訳(メタデータ) (2021-12-08T08:15:20Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - Dressing in Order: Recurrent Person Image Generation for Pose Transfer,
Virtual Try-on and Outfit Editing [15.764620091391603]
本稿では,Dressing in Order(DiOr)という柔軟な人生成フレームワークを提案する。
2Dポーズ転送、仮想試着、およびいくつかのファッション編集タスクをサポートします。
論文 参考訳(メタデータ) (2021-04-14T17:58:54Z) - VOGUE: Try-On by StyleGAN Interpolation Optimization [14.327659393182204]
対象者の画像と衣服を身に着けている人の画像から、対象の衣服を自動的に生成する。
提案手法の核心はポーズ条件付きstylegan2潜在空間であり,各画像からの関心領域をシームレスに結合する。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
論文 参考訳(メタデータ) (2021-01-06T22:01:46Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。