論文の概要: High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled
Conditions
- arxiv url: http://arxiv.org/abs/2206.14180v1
- Date: Tue, 28 Jun 2022 17:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:35:33.632094
- Title: High-Resolution Virtual Try-On with Misalignment and Occlusion-Handled
Conditions
- Title(参考訳): 誤視と咬合操作を伴う高分解能バーチャルトライオン
- Authors: Sangyun Lee, Gyojung Gu, Sunghyun Park, Seunghwan Choi, Jaegul Choo
- Abstract要約: 画像ベースの仮想試着は、所定の衣料品を身に着けている人の画像を合成することを目的としている。
2段階の統一モジュール(ワープおよびセグメンテーション生成段階)として新しい試行条件生成器を提案する。
条件ジェネレータに新たに提案された特徴融合ブロックは情報交換を実装しており、条件ジェネレータはミスアライメントやピクセルスクイーズを発生しない。
- 参考スコア(独自算出の注目度): 29.236895355922496
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image-based virtual try-on aims to synthesize an image of a person wearing a
given clothing item. To solve the task, the existing methods warp the clothing
item to fit the person's body and generate the segmentation map of the person
wearing the item, before fusing the item with the person. However, when the
warping and the segmentation generation stages operate individually without
information exchange, the misalignment between the warped clothes and the
segmentation map occurs, which leads to the artifacts in the final image. The
information disconnection also causes excessive warping near the clothing
regions occluded by the body parts, so called pixel-squeezing artifacts. To
settle the issues, we propose a novel try-on condition generator as a unified
module of the two stages (i.e., warping and segmentation generation stages). A
newly proposed feature fusion block in the condition generator implements the
information exchange, and the condition generator does not create any
misalignment or pixel-squeezing artifacts. We also introduce discriminator
rejection that filters out the incorrect segmentation map predictions and
assures the performance of virtual try-on frameworks. Experiments on a
high-resolution dataset demonstrate that our model successfully handles the
misalignment and the occlusion, and significantly outperforms the baselines.
Code is available at https://github.com/sangyun884/HR-VITON.
- Abstract(参考訳): 画像ベースの仮想試着は、所定の衣料品を身に着けている人の画像を合成することを目的としている。
この課題を解決するため、既存の方法では、着用者の体に合うように衣料品をワープし、着用者のセグメンテーションマップを生成する。
しかし、情報交換無しに、ワーピングとセグメンテーション生成段階が個別に作動すると、乱れた衣服とセグメンテーションマップとの間の不一致が生じ、最終画像のアーティファクトに繋がる。
情報の切り離しはまた、身体部分によって隠された衣服領域の近くで過度な歪みを引き起こす。
そこで本研究では,2段階(ワープおよびセグメンテーション生成段階)の統一モジュールとして,新しい試行条件生成手法を提案する。
条件生成器で新たに提案された特徴融合ブロックは情報交換を実装し、条件生成器は不一致や画素配列のアーティファクトを生成しない。
また,不正確なセグメンテーションマップの予測をフィルタリングし,仮想試行フレームワークの性能を保証する識別器の拒絶も導入する。
高分解能データセットを用いた実験により,本モデルが不一致や咬合をうまく処理し,ベースラインを著しく上回ることを示した。
コードはhttps://github.com/sangyun884/HR-VITONで入手できる。
関連論文リスト
- GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Foreground-Background Separation through Concept Distillation from
Generative Image Foundation Models [6.408114351192012]
本稿では, 簡単なテキスト記述から, 一般的な前景-背景セグメンテーションモデルの生成を可能にする新しい手法を提案する。
本研究では,4つの異なる物体(人間,犬,車,鳥)を分割する作業と,医療画像解析におけるユースケースシナリオについて述べる。
論文 参考訳(メタデータ) (2022-12-29T13:51:54Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization [18.347532903864597]
仮想試行画像1024x768の合成に成功したVITON-HDという新しい仮想試行法を提案する。
本研究では,VITON-HDが質的にも量的にも合成画質のベースラインを超越していることを示した。
論文 参考訳(メタデータ) (2021-03-31T07:52:41Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Semantic Editing On Segmentation Map Via Multi-Expansion Loss [98.1131339357174]
本稿では,セグメンテーションマップのセグメンテーションの精度向上を目的とした。
本稿では,新しいMulti-Expansion(MEx)損失を利用したセグメンテーションマップのセグメンテーション編集のためのMExGANを提案する。
セグメンテーションマップのセグメンテーション編集と自然画像のインペインティングの実験は、4つのデータセットで競合する結果を示した。
論文 参考訳(メタデータ) (2020-10-16T03:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。