論文の概要: VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization
- arxiv url: http://arxiv.org/abs/2103.16874v1
- Date: Wed, 31 Mar 2021 07:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:34:01.544792
- Title: VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization
- Title(参考訳): viton-hd: isalignment-aware normalizationによる高解像度仮想トライオン
- Authors: Seunghwan Choi, Sunghyun Park, Minsoo Lee, Jaegul Choo
- Abstract要約: 仮想試行画像1024x768の合成に成功したVITON-HDという新しい仮想試行法を提案する。
本研究では,VITON-HDが質的にも量的にも合成画質のベースラインを超越していることを示した。
- 参考スコア(独自算出の注目度): 18.347532903864597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of image-based virtual try-on aims to transfer a target clothing
item onto the corresponding region of a person, which is commonly tackled by
fitting the item to the desired body part and fusing the warped item with the
person. While an increasing number of studies have been conducted, the
resolution of synthesized images is still limited to low (e.g., 256x192), which
acts as the critical limitation against satisfying online consumers. We argue
that the limitation stems from several challenges: as the resolution increases,
the artifacts in the misaligned areas between the warped clothes and the
desired clothing regions become noticeable in the final results; the
architectures used in existing methods have low performance in generating
high-quality body parts and maintaining the texture sharpness of the clothes.
To address the challenges, we propose a novel virtual try-on method called
VITON-HD that successfully synthesizes 1024x768 virtual try-on images.
Specifically, we first prepare the segmentation map to guide our virtual try-on
synthesis, and then roughly fit the target clothing item to a given person's
body. Next, we propose ALIgnment-Aware Segment (ALIAS) normalization and ALIAS
generator to handle the misaligned areas and preserve the details of 1024x768
inputs. Through rigorous comparison with existing methods, we demonstrate that
VITON-HD highly sur-passes the baselines in terms of synthesized image quality
both qualitatively and quantitatively.
- Abstract(参考訳): イメージベース仮想試着のタスクは、対象の衣服アイテムを、所望の身体部に装着して被写体と融合させることにより、対象の被写体の対応する領域に移動させることを目標とする。
研究が増えている一方で、合成画像の解像度は依然として低い(256x192)に制限されており、これはオンライン消費者の満足を損なう重要な制限となっている。
この限界は, 解決が進むにつれて, ゆがんだ衣服と所望の衣服領域との間の不整合領域のアーティファクトが最終結果で顕著になり, 既存の手法では, 高品質の身体部品の生成や, 衣服のテクスチャの鋭さを維持する上で, 性能が低下する, といういくつかの課題に起因している。
そこで本研究では,1024x768の仮想試行画像の合成に成功したVITON-HDという新しい仮想試行法を提案する。
具体的には,まず,仮想試着合成のガイドとしてセグメンテーションマップを作成し,対象の衣服を対象者の体にほぼ適合させる。
次に,アライメントアウェアセグメント(alias)正規化とエイリアス生成法を提案する。
既存の手法との厳密な比較により,viton-hdは質的および定量的に合成画像品質の基準を高い精度で超越することを示した。
関連論文リスト
- Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of Altered Diffusion Models [4.038493506169702]
本研究は, 複雑なテクスチャの詳細と, 対象者と衣服の特徴を, 様々なシナリオで保存することの課題を強調する。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:15:29Z) - WarpDiffusion: Efficient Diffusion Model for High-Fidelity Virtual
Try-on [81.15988741258683]
画像ベースの仮想トライオン(VITON)は、ホップ内の衣服イメージを対象人物に転送することを目的としている。
現在の方法では、衣服と肌の境界付近の合成品質や、ねじれた衣服のしわや影のような現実的な効果を見落としていることが多い。
本稿では,新しい情報的・局所的な特徴的注意機構を通じてワーピングと拡散に基づくパラダイムを橋渡しするワープ拡散を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:34:32Z) - VTON-IT: Virtual Try-On using Image Translation [0.0]
我々は,セマンティックセグメンテーションと生成的対向的アーキテクチャに基づく画像翻訳ネットワークを通じて,フォトリアリスティックな翻訳画像を作成しようとする。
本稿では、RGB画像、所望の身体部分のセグメントを抽出し、セグメント化された身体領域にターゲット布をオーバーレイする、新しい画像ベースの仮想トライオンアプリケーションVTON-ITを提案する。
論文 参考訳(メタデータ) (2023-10-06T19:47:20Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled
Conditions [29.236895355922496]
画像ベースの仮想試着は、所定の衣料品を身に着けている人の画像を合成することを目的としている。
2段階の統一モジュール(ワープおよびセグメンテーション生成段階)として新しい試行条件生成器を提案する。
条件ジェネレータに新たに提案された特徴融合ブロックは情報交換を実装しており、条件ジェネレータはミスアライメントやピクセルスクイーズを発生しない。
論文 参考訳(メタデータ) (2022-06-28T17:47:53Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP) [18.347532903864597]
VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
論文 参考訳(メタデータ) (2021-11-16T07:40:16Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z) - SieveNet: A Unified Framework for Robust Image-Based Virtual Try-On [14.198545992098309]
SieveNetは、堅牢なイメージベースの仮想トライオンのためのフレームワークである。
細粒度精度をモデル化する多段粗いワープネットワークを提案する。
また,テクスチャ伝達ネットワークを改善するために,試着型布条件セグメンテーションマスクを導入する。
論文 参考訳(メタデータ) (2020-01-17T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。