論文の概要: ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce
- arxiv url: http://arxiv.org/abs/2304.07533v1
- Date: Sat, 15 Apr 2023 11:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:33:51.373411
- Title: ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce
- Title(参考訳): ALiSNet:ファッションEコマースのための正確で軽量なヒューマンセグメンテーションネットワーク
- Authors: Amrollah Seifoddini, Koen Vernooij, Timon K\"unzle, Alessandro
Canopoli, Malte Alf, Anna Volokitin, Reza Shirvany
- Abstract要約: スマートフォンは、ユーザーが自分の身体の画像をキャプチャする便利な手段を提供する。
我々は、PointRendでSemantic FPNを単純化することで、新しいセグメンテーションモデルを作成する。
我々は、このモデルを、私たちのアプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整する。
- 参考スコア(独自算出の注目度): 57.876602177247534
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately estimating human body shape from photos can enable innovative
applications in fashion, from mass customization, to size and fit
recommendations and virtual try-on. Body silhouettes calculated from user
pictures are effective representations of the body shape for downstream tasks.
Smartphones provide a convenient way for users to capture images of their body,
and on-device image processing allows predicting body segmentation while
protecting users privacy. Existing off-the-shelf methods for human segmentation
are closed source and cannot be specialized for our application of body shape
and measurement estimation. Therefore, we create a new segmentation model by
simplifying Semantic FPN with PointRend, an existing accurate model. We
finetune this model on a high-quality dataset of humans in a restricted set of
poses relevant for our application. We obtain our final model, ALiSNet, with a
size of 4MB and 97.6$\pm$1.0$\%$ mIoU, compared to Apple Person Segmentation,
which has an accuracy of 94.4$\pm$5.7$\%$ mIoU on our dataset.
- Abstract(参考訳): 写真から正確な人体形状を推定することで、大量カスタマイズからサイズや適合度、仮想トライオンまで、革新的な応用が可能になる。
ユーザ画像から算出したボディシルエットは、下流作業における身体形状の効果的な表現である。
スマートフォンは、ユーザーが体の画像を撮影するのに便利な方法を提供し、オンデバイス画像処理は、ユーザーのプライバシーを保護しながら、身体のセグメンテーションを予測することができる。
既存の人体セグメンテーションのオフ・ザ・シェルフ法はクローズド・ソースであり,身体形状および計測推定の応用には特化できない。
そこで我々は,既存の精度モデルであるPointRendでSemantic FPNを単純化することにより,新たなセグメンテーションモデルを作成する。
このモデルを、アプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整します。
最終的なモデルであるalisnetは、4mbと97.6$\pm$1.0$$$$$miouで、データセット上で94.4$\pm$5.7$$$$$$miouのappleパーソンセグメンテーションと比較します。
関連論文リスト
- ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - Human Body Shape Classification Based on a Single Image [1.3764085113103217]
一つの画像から人体形状を分類する手法を提案する。
提案手法は, 分類の結果, 3次元ボディレクリエーションを必要としない。
結果として得られる体形分類は、様々な下流タスクで利用することができる。
論文 参考訳(メタデータ) (2023-05-29T11:47:43Z) - Estimation of 3D Body Shape and Clothing Measurements from Frontal- and
Side-view Images [8.107762252448195]
ファッション業界における3次元人体形状と衣服の計測は,仮想試行錯誤およびサイズ推薦問題に不可欠である。
既存の研究はこれらの問題に対する様々な解決策を提案したが、複雑さと制約のために業界適応には成功しなかった。
本稿では,正面画像と側面画像から形状と測度の両方を推定する,シンプルで効果的なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-28T06:10:41Z) - Single-view 3D Body and Cloth Reconstruction under Complex Poses [37.86174829271747]
既存の暗黙の関数ベースモデルを拡張して、任意のポーズと自己排他的な手足を持つ人間の画像を扱う。
入力画像を低精細度で3次元のボディ形状にマッピングする暗黙の関数を学習する。
次に、スムーズな表面を条件とした変位マップを学習し、衣服や身体の高周波の詳細を符号化する。
論文 参考訳(メタデータ) (2022-05-09T07:34:06Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - RePose: Learning Deep Kinematic Priors for Fast Human Pose Estimation [17.0630180888369]
本稿では,1つの画像から人間のポーズ推定を行うための,効率的で軽量なモデルを提案する。
本モデルは,様々な最先端手法のパラメータ数と計算コストのごく一部で競合する結果を得るように設計されている。
論文 参考訳(メタデータ) (2020-02-10T16:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。