論文の概要: OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup
- arxiv url: http://arxiv.org/abs/2301.00965v1
- Date: Tue, 3 Jan 2023 06:29:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:07:21.297171
- Title: OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup
- Title(参考訳): OccluMix:Semantically-Guided Mixupによるデオクルージョン仮想トライオンを目指して
- Authors: Zhijing Yang, Junyang Chen, Yukai Shi, Hao Li, Tianshui Chen, Liang
Lin
- Abstract要約: Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
- 参考スコア(独自算出の注目度): 79.3118064406151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image Virtual try-on aims at replacing the cloth on a personal image with a
garment image (in-shop clothes), which has attracted increasing attention from
the multimedia and computer vision communities. Prior methods successfully
preserve the character of clothing images, however, occlusion remains a
pernicious effect for realistic virtual try-on. In this work, we first present
a comprehensive analysis of the occlusions and categorize them into two
aspects: i) Inherent-Occlusion: the ghost of the former cloth still exists in
the try-on image; ii) Acquired-Occlusion: the target cloth warps to the
unreasonable body part. Based on the in-depth analysis, we find that the
occlusions can be simulated by a novel semantically-guided mixup module, which
can generate semantic-specific occluded images that work together with the
try-on images to facilitate training a de-occlusion try-on (DOC-VTON)
framework. Specifically, DOC-VTON first conducts a sharpened semantic parsing
on the try-on person. Aided by semantics guidance and pose prior, various
complexities of texture are selectively blending with human parts in a
copy-and-paste manner. Then, the Generative Module (GM) is utilized to take
charge of synthesizing the final try-on image and learning to de-occlusion
jointly. In comparison to the state-of-the-art methods, DOC-VTON achieves
better perceptual quality by reducing occlusion effects.
- Abstract(参考訳): Image Virtual try-onは、パーソナルイメージ上の布を、マルチメディアやコンピュータビジョンのコミュニティから注目を集めている衣服画像(ホップ内服)に置き換えることを目的としている。
しかし,従来は衣服画像の特徴を保ちつつも,隠蔽は現実的な仮想試行に悪影響を及ぼす。
本研究では,まず咬合の包括的分析を行い,その2つの側面に分類する。
一 独創性:旧布の亡霊が現在も試着画像に残されていること。
二 取得閉塞:対象の布が不合理な身体部位に反する。
In-deepth analysis に基づいて、これらのオクルージョンを新しいセマンティック誘導混合モジュールでシミュレートできることが判明した。これにより、セマンティック特異的なオクルージョン画像を生成し、試行錯誤(DOC-VTON)フレームワークのトレーニングを容易にする。
具体的には、DOC-VTONはまず、試行錯誤者に対してシャープな意味解析を行う。
セマンティクス指導とポーズの先行により、テクスチャの様々な複雑さが、コピー&ペーストな方法で人間の部分と選択的にブレンドされる。
そして、生成モジュール(gm)を使用して、最終的なトライオン画像の合成と、共催解除の学習を行う。
最先端の手法と比較して、DOC-VTONは閉塞効果を低減して知覚品質を向上させる。
関連論文リスト
- Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Virtual Try-on [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Single Stage Warped Cloth Learning and Semantic-Contextual Attention Feature Fusion for Virtual TryOn [5.790630195329777]
画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T06:05:01Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - AMICO: Amodal Instance Composition [40.03865667370814]
画像合成は、複数のオブジェクトをブレンドして調和した画像を形成することを目的としている。
対象画像に不完全なオブジェクトをブレンドするためのアモーダルインスタンス構成を提案する。
本結果は,COCOAおよびKINSベンチマークにおける最先端性能を示す。
論文 参考訳(メタデータ) (2022-10-11T23:23:14Z) - Disentangled Cycle Consistency for Highly-realistic Virtual Try-On [34.97658860425598]
Image Virtual try-onは、人画像上の服を、希望する着物画像に置き換える。
既存の方法は、仮想トライオンをインペインティングまたはサイクル整合性として定式化する。
DCTON(Disentangled Cycle-consistency Try-On Network)の提案
論文 参考訳(メタデータ) (2021-03-17T07:18:55Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。