論文の概要: ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce
- arxiv url: http://arxiv.org/abs/2304.07533v1
- Date: Sat, 15 Apr 2023 11:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:33:51.373411
- Title: ALiSNet: Accurate and Lightweight Human Segmentation Network for Fashion
E-Commerce
- Title(参考訳): ALiSNet:ファッションEコマースのための正確で軽量なヒューマンセグメンテーションネットワーク
- Authors: Amrollah Seifoddini, Koen Vernooij, Timon K\"unzle, Alessandro
Canopoli, Malte Alf, Anna Volokitin, Reza Shirvany
- Abstract要約: スマートフォンは、ユーザーが自分の身体の画像をキャプチャする便利な手段を提供する。
我々は、PointRendでSemantic FPNを単純化することで、新しいセグメンテーションモデルを作成する。
我々は、このモデルを、私たちのアプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整する。
- 参考スコア(独自算出の注目度): 57.876602177247534
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately estimating human body shape from photos can enable innovative
applications in fashion, from mass customization, to size and fit
recommendations and virtual try-on. Body silhouettes calculated from user
pictures are effective representations of the body shape for downstream tasks.
Smartphones provide a convenient way for users to capture images of their body,
and on-device image processing allows predicting body segmentation while
protecting users privacy. Existing off-the-shelf methods for human segmentation
are closed source and cannot be specialized for our application of body shape
and measurement estimation. Therefore, we create a new segmentation model by
simplifying Semantic FPN with PointRend, an existing accurate model. We
finetune this model on a high-quality dataset of humans in a restricted set of
poses relevant for our application. We obtain our final model, ALiSNet, with a
size of 4MB and 97.6$\pm$1.0$\%$ mIoU, compared to Apple Person Segmentation,
which has an accuracy of 94.4$\pm$5.7$\%$ mIoU on our dataset.
- Abstract(参考訳): 写真から正確な人体形状を推定することで、大量カスタマイズからサイズや適合度、仮想トライオンまで、革新的な応用が可能になる。
ユーザ画像から算出したボディシルエットは、下流作業における身体形状の効果的な表現である。
スマートフォンは、ユーザーが体の画像を撮影するのに便利な方法を提供し、オンデバイス画像処理は、ユーザーのプライバシーを保護しながら、身体のセグメンテーションを予測することができる。
既存の人体セグメンテーションのオフ・ザ・シェルフ法はクローズド・ソースであり,身体形状および計測推定の応用には特化できない。
そこで我々は,既存の精度モデルであるPointRendでSemantic FPNを単純化することにより,新たなセグメンテーションモデルを作成する。
このモデルを、アプリケーションに関連するポーズの制限されたセットで、高品質な人間のデータセットに微調整します。
最終的なモデルであるalisnetは、4mbと97.6$\pm$1.0$$$$$miouで、データセット上で94.4$\pm$5.7$$$$$$miouのappleパーソンセグメンテーションと比較します。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - Human Body Shape Classification Based on a Single Image [1.3764085113103217]
一つの画像から人体形状を分類する手法を提案する。
提案手法は, 分類の結果, 3次元ボディレクリエーションを必要としない。
結果として得られる体形分類は、様々な下流タスクで利用することができる。
論文 参考訳(メタデータ) (2023-05-29T11:47:43Z) - Single-view 3D Body and Cloth Reconstruction under Complex Poses [37.86174829271747]
既存の暗黙の関数ベースモデルを拡張して、任意のポーズと自己排他的な手足を持つ人間の画像を扱う。
入力画像を低精細度で3次元のボディ形状にマッピングする暗黙の関数を学習する。
次に、スムーズな表面を条件とした変位マップを学習し、衣服や身体の高周波の詳細を符号化する。
論文 参考訳(メタデータ) (2022-05-09T07:34:06Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - RePose: Learning Deep Kinematic Priors for Fast Human Pose Estimation [17.0630180888369]
本稿では,1つの画像から人間のポーズ推定を行うための,効率的で軽量なモデルを提案する。
本モデルは,様々な最先端手法のパラメータ数と計算コストのごく一部で競合する結果を得るように設計されている。
論文 参考訳(メタデータ) (2020-02-10T16:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。