論文の概要: Significance of Skeleton-based Features in Virtual Try-On
- arxiv url: http://arxiv.org/abs/2208.08076v3
- Date: Sat, 6 Jan 2024 06:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 00:49:56.470271
- Title: Significance of Skeleton-based Features in Virtual Try-On
- Title(参考訳): 仮想トライオンにおける骨格的特徴の意義
- Authors: Debapriya Roy, Sanchayan Santra, Diganta Mukherjee, Bhabatosh Chanda
- Abstract要約: textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
- 参考スコア(独自算出の注目度): 3.7552180803118325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The idea of \textit{Virtual Try-ON} (VTON) benefits e-retailing by giving an
user the convenience of trying a clothing at the comfort of their home. In
general, most of the existing VTON methods produce inconsistent results when a
person posing with his arms folded i.e., bent or crossed, wants to try an
outfit. The problem becomes severe in the case of long-sleeved outfits. As
then, for crossed arm postures, overlap among different clothing parts might
happen. The existing approaches, especially the warping-based methods employing
\textit{Thin Plate Spline (TPS)} transform can not tackle such cases. To this
end, we attempt a solution approach where the clothing from the source person
is segmented into semantically meaningful parts and each part is warped
independently to the shape of the person. To address the bending issue, we
employ hand-crafted geometric features consistent with human body geometry for
warping the source outfit. In addition, we propose two learning-based modules:
a synthesizer network and a mask prediction network. All these together attempt
to produce a photo-realistic, pose-robust VTON solution without requiring any
paired training data. Comparison with some of the benchmark methods clearly
establishes the effectiveness of the approach.
- Abstract(参考訳): textit{virtual try-on} (vton) というアイデアは、家の中で快適に衣服を試着する利便性をユーザに与えることで、e-retailingのメリットを享受する。
一般に、既存のVTONの手法のほとんどは、腕を折り曲げたり、曲げたり、交差させたりしてポーズをとったりすると、一貫性のない結果をもたらす。
長袖の衣装の場合、この問題は深刻になる。
それ以来、腕の交叉姿勢では、異なる衣服部品の重なりが生じる可能性がある。
既存のアプローチ、特に \textit{Thin Plate Spline (TPS) 変換を用いたワーピングベースの手法はそのようなケースに対処できない。
そこで本研究では,対象者の衣服を意味的に意味のある部品に分割し,各部位を個人の形状と独立して反動させる手法を提案する。
屈曲問題に対処するために,手作りの幾何学的特徴を人体形状と整合して使用した。
さらに,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
これらすべては、ペアのトレーニングデータを必要とせずに、フォトリアリスティックでポーズローバストなVTONソリューションを作成しようとする。
いくつかのベンチマーク手法と比較すると、アプローチの有効性は明らかである。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - Significance of Anatomical Constraints in Virtual Try-On [3.5002397743250504]
VTONシステムは、所定の衣服の人の試着アウトプットを予測するために、衣服のソースと人の画像を取得する。
既存の方法は、不正確な衣服の変形を発生させることで失敗する。
本稿では,服を個別にワープ可能な部品に分割し,個別にワープし,その後に組み合わせるパートベースのワープ手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T07:43:40Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - ECON: Explicit Clothed humans Optimized via Normal integration [54.51948104460489]
ゆるい衣服で3D人間を作る方法であるECONについて述べる。
布を被った人の正面と後方の詳細な2Dマップを推測する。
d-BiNI曲面の間の欠測幾何を「塗装」する。
論文 参考訳(メタデータ) (2022-12-14T18:59:19Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - LGVTON: A Landmark Guided Approach to Virtual Try-On [4.617329011921226]
人物とモデルという2人のイメージから、モデルの服を着ている人の再考を生成する。
これは、ほとんどのeコマースウェブサイトでは、服のみのイメージが通常利用できないという事実を考えると便利である。
論文 参考訳(メタデータ) (2020-04-01T16:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。