論文の概要: Image-Based Virtual Try-on System With Clothing-Size Adjustment
- arxiv url: http://arxiv.org/abs/2302.14197v1
- Date: Mon, 27 Feb 2023 23:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 18:42:11.019758
- Title: Image-Based Virtual Try-on System With Clothing-Size Adjustment
- Title(参考訳): 衣服サイズ調整による画像ベース仮想試着システム
- Authors: Minoru Kuribayashi, Koki Nakai, Nobuo Funabiki
- Abstract要約: 従来の画像ベース仮想試着法では,衣服のサイズに応じた適合画像は生成できない。
本研究では,衣服サイズを調整可能な画像ベースの仮想試着システムを提案する。
- 参考スコア(独自算出の注目度): 5.006086647446481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conventional image-based virtual try-on method cannot generate fitting
images that correspond to the clothing size because the system cannot
accurately reflect the body information of a person. In this study, an
image-based virtual try-on system that could adjust the clothing size was
proposed. The size information of the person and clothing were used as the
input for the proposed method to visualize the fitting of various clothing
sizes in a virtual space. First, the distance between the shoulder width and
height of the clothing in the person image is calculated based on the
coordinate information of the key points detected by OpenPose. Then, the system
changes the size of only the clothing area of the segmentation map, whose
layout is estimated using the size of the person measured in the person image
based on the ratio of the person and clothing sizes. If the size of the
clothing area increases during the drawing, the details in the collar and
overlapping areas are corrected to improve visual appearance.
- Abstract(参考訳): 従来のイメージベース仮想トライオン方式では,身体情報を正確に反映することができないため,衣服サイズに応じたフィッティング画像は生成できない。
本研究では,衣服サイズを調整可能な画像ベースの仮想試着システムを提案する。
仮想空間における様々な衣服の大きさの適合を可視化するために,提案手法の入力として人や衣服のサイズ情報を用いた。
まず、openposeによって検出されたキーポイントの座標情報に基づいて、人物像における肩幅と衣服の高さとの間の距離を算出する。
そして、人体画像中の被写体の大きさを、被写体サイズと被写体サイズとの比に基づいて、レイアウトを推定するセグメンテーションマップの衣服面積のみのサイズを変更する。
図面中に衣服面積が大きくなると、首輪及び重なり領域の詳細が修正され、視覚的な外観が向上する。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce [57.876602177247534]
スマートフォンは、ユーザーが自分の身体の画像をキャプチャする便利な手段を提供する。
我々は、PointRendでSemantic FPNを単純化することで、新しいセグメンテーションモデルを作成する。
我々は、このモデルを、私たちのアプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整する。
論文 参考訳(メタデータ) (2023-04-15T11:06:32Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Per Garment Capture and Synthesis for Real-time Virtual Try-on [15.128477359632262]
既存の画像ベースワークは、ターゲット服の1つの画像から試着画像を合成しようとする。
ポーズや体の大きさの変化によるしわの変化を再現することは困難であり、衣服を手で引っ張ったり伸ばしたりすることは困難である。
そこで本研究では,このようなリッチなインタラクションを,多くのシステマティックな画像を用いてトレーニングすることで,衣服ごとのキャプチャと合成のワークフローを提案する。
論文 参考訳(メタデータ) (2021-09-10T03:49:37Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - SIZER: A Dataset and Model for Parsing 3D Clothing and Learning Size
Sensitive 3D Clothing [50.63492603374867]
SizerNetを導入し、人体形状と衣服サイズパラメータに基づいて3D衣服を予測する。
また、入力メッシュから1パスの個人的詳細を持つ衣服の下で、衣服のメッシュと形状を推測するためにNetを導入する。
論文 参考訳(メタデータ) (2020-07-22T18:13:24Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。