論文の概要: Towards Squeezing-Averse Virtual Try-On via Sequential Deformation
- arxiv url: http://arxiv.org/abs/2312.15861v1
- Date: Tue, 26 Dec 2023 03:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:09:44.615945
- Title: Towards Squeezing-Averse Virtual Try-On via Sequential Deformation
- Title(参考訳): 逐次変形による逆仮想試行
- Authors: Sang-Heon Shim, Jiwoo Chung, Jae-Pil Heo
- Abstract要約: 本稿では,最近の高分解能仮想試行法で観測された視覚的品質劣化問題について検討する。
問題の主な原因は、2つの一般的な損失であるトータル・バラツキ(TV)と敵の損失の間の勾配の衝突である。
出現フロー予測層をテレビの主観的な層とタスク共存層に分離する逐次変形(SD-VITON)を提案する。
- 参考スコア(独自算出の注目度): 18.224181158316057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we first investigate a visual quality degradation problem
observed in recent high-resolution virtual try-on approach. The tendency is
empirically found that the textures of clothes are squeezed at the sleeve, as
visualized in the upper row of Fig.1(a). A main reason for the issue arises
from a gradient conflict between two popular losses, the Total Variation (TV)
and adversarial losses. Specifically, the TV loss aims to disconnect boundaries
between the sleeve and torso in a warped clothing mask, whereas the adversarial
loss aims to combine between them. Such contrary objectives feedback the
misaligned gradients to a cascaded appearance flow estimation, resulting in
undesirable squeezing artifacts. To reduce this, we propose a Sequential
Deformation (SD-VITON) that disentangles the appearance flow prediction layers
into TV objective-dominant (TVOB) layers and a task-coexistence (TACO) layer.
Specifically, we coarsely fit the clothes onto a human body via the TVOB
layers, and then keep on refining via the TACO layer. In addition, the bottom
row of Fig.1(a) shows a different type of squeezing artifacts around the waist.
To address it, we further propose that we first warp the clothes into a
tucked-out shirts style, and then partially erase the texture from the warped
clothes without hurting the smoothness of the appearance flows. Experimental
results show that our SD-VITON successfully resolves both types of artifacts
and outperforms the baseline methods. Source code will be available at
https://github.com/SHShim0513/SD-VITON.
- Abstract(参考訳): 本稿では,近年の高解像度仮想試行法における視覚品質劣化問題について検討する。
この傾向は、図1(a)の上段に示すように、衣服のテクスチャが袖で絞られていることを実証的に見出す。
この問題の主な理由は、一般的な2つの損失、すなわちtv(total variation)と敵対的損失の間の勾配衝突から生じる。
特に、テレビの損失は、反りのある衣服マスクでスリーブと胴体の境界を切り離すことを目的としているが、敵対的な損失は両者を組み合わせることを目的としている。
このような反対の目的は、不整合勾配をカスケードされた外観フロー推定にフィードバックし、望ましくないアーチファクトを生み出す。
そこで本研究では,TVOB層とタスク共存層(TACO層)に出現フロー予測層を分散させるシークエンシャル変形(SD-VITON)を提案する。
具体的には,TVOB層を介して衣服を人体に密着し,TACO層を介して精製を続ける。
さらに、図1(a)の一番下の列は、腰の周りで異なる種類のスクイーズアーティファクトを示している。
そこで本研究では,まず着衣をタックアウトしたシャツスタイルに整え,その後,外観の滑らかさを損なうことなく、反りのある衣服の質感を部分的に消去する手法を提案する。
実験の結果,SD-VITONは両種類のアーティファクトの解決に成功し,ベースライン法よりも優れていた。
ソースコードはhttps://github.com/SHShim0513/SD-VITONで入手できる。
関連論文リスト
- Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Significance of Anatomical Constraints in Virtual Try-On [3.5002397743250504]
VTONシステムは、所定の衣服の人の試着アウトプットを予測するために、衣服のソースと人の画像を取得する。
既存の方法は、不正確な衣服の変形を発生させることで失敗する。
本稿では,服を個別にワープ可能な部品に分割し,個別にワープし,その後に組み合わせるパートベースのワープ手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T07:43:40Z) - Significance of Skeleton-based Features in Virtual Try-On [3.7552180803118325]
textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
論文 参考訳(メタデータ) (2022-08-17T05:24:03Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Contrastive Feature Loss for Image Prediction [55.373404869092866]
教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T20:39:52Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization [18.347532903864597]
仮想試行画像1024x768の合成に成功したVITON-HDという新しい仮想試行法を提案する。
本研究では,VITON-HDが質的にも量的にも合成画質のベースラインを超越していることを示した。
論文 参考訳(メタデータ) (2021-03-31T07:52:41Z) - MonoClothCap: Towards Temporally Coherent Clothing Capture from
Monocular RGB Video [10.679773937444445]
本稿では,モノクラーRGBビデオ入力から時間的コヒーレントな動的衣服の変形を捉える手法を提案する。
我々は,Tシャツ,ショートパンツ,ロングパンツの3種類の衣服の統計的変形モデルを構築した。
本手法は,モノクロ映像から身体と衣服の時間的コヒーレントな再構築を実現する。
論文 参考訳(メタデータ) (2020-09-22T17:54:38Z) - GarNet++: Improving Fast and Accurate Static3D Cloth Draping by
Curvature Loss [89.96698250086064]
仮想3次元体上にテンプレート布を視覚的に可視的に描画する2ストリームディープネットワークモデルを提案する。
我々のネットワークは、計算時間を桁違いに減らしながら、物理ベースシミュレーション(PBS)法を模倣することを学ぶ。
身体形状とポーズの異なる4種類の衣服の枠組みを検証した。
論文 参考訳(メタデータ) (2020-07-20T13:40:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。