論文の概要: ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation
- arxiv url: http://arxiv.org/abs/2403.01345v1
- Date: Sat, 2 Mar 2024 23:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:09:23.274997
- Title: ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation
- Title(参考訳): ShapeBoost: 部分的パラメータ化と衣服保存強化による人体形状推定
- Authors: Siyuan Bian, Jiefeng Li, Jiasheng Tang, Cewu Lu
- Abstract要約: 本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
- 参考スコア(独自算出の注目度): 58.50613393500561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate human shape recovery from a monocular RGB image is a challenging
task because humans come in different shapes and sizes and wear different
clothes. In this paper, we propose ShapeBoost, a new human shape recovery
framework that achieves pixel-level alignment even for rare body shapes and
high accuracy for people wearing different types of clothes. Unlike previous
approaches that rely on the use of PCA-based shape coefficients, we adopt a new
human shape parameterization that decomposes the human shape into bone lengths
and the mean width of each part slice. This part-based parameterization
technique achieves a balance between flexibility and validity using a
semi-analytical shape reconstruction algorithm. Based on this new
parameterization, a clothing-preserving data augmentation module is proposed to
generate realistic images with diverse body shapes and accurate annotations.
Experimental results show that our method outperforms other state-of-the-art
methods in diverse body shape situations as well as in varied clothing
situations.
- Abstract(参考訳): モノクロのrgb画像からの正確な人間の形状復元は、人間が異なる形状と大きさを持ち、異なる服を着ているため、難しい課題である。
本稿では,レアな体型でもピクセルレベルアライメントを実現し,異なる服装を身に着ける人にとって高精度な形状復元フレームワークであるshapeboostを提案する。
従来のpcaに基づく形状係数を用いたアプローチとは異なり,ヒトの形状を骨長と各部分スライスの平均幅に分解する新しい形状パラメータ化を採用する。
本手法は,半解析的形状再構成アルゴリズムを用いて,柔軟性と妥当性のバランスを実現する。
この新たなパラメータ化に基づいて,多様なボディ形状と正確なアノテーションを持つリアルな画像を生成するために,衣料保存データ拡張モジュールを提案する。
実験結果から,本手法は,多様な体型状況や多様な衣服状況において,他の最先端手法よりも優れていた。
関連論文リスト
- Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - TailorMe: Self-Supervised Learning of an Anatomically Constrained
Volumetric Human Shape Model [4.474107938692397]
人間の形状空間は、人間の形状の中核要素であり、推論タスクを装うため、広く研究されている。
骨格骨と軟組織からなる解剖学的テンプレートをCAESARデータベースの表面スキャンに作成する。
このデータは、人文的に制約された容積的人体形状モデルを自己監督的に学習するために使用される。
論文 参考訳(メタデータ) (2023-11-03T07:42:19Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Deep Physics-aware Inference of Cloth Deformation for Monocular Human
Performance Capture [84.73946704272113]
物理をトレーニングプロセスに統合することで、学習した布の変形が改善し、衣服を別の幾何学的要素としてモデル化できることを示す。
提案手法は現在の最先端手法よりも大幅に改善され,人間の衣服の変形面全体に対する現実的なモノクロキャプチャに向けた明確なステップとなる。
論文 参考訳(メタデータ) (2020-11-25T16:46:00Z) - NiLBS: Neural Inverse Linear Blend Skinning [59.22647012489496]
本稿では, 従来のスキン加工技術を用いて, ポーズによってパラメータ化されたニューラルネットワークを用いて変形を反転させる手法を提案する。
これらの変形を逆転する能力は、例えば距離関数、符号付き距離関数、占有率)の値を静止ポーズで事前計算し、文字が変形したときに効率的にクエリすることができる。
論文 参考訳(メタデータ) (2020-04-06T20:46:37Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z) - RePose: Learning Deep Kinematic Priors for Fast Human Pose Estimation [17.0630180888369]
本稿では,1つの画像から人間のポーズ推定を行うための,効率的で軽量なモデルを提案する。
本モデルは,様々な最先端手法のパラメータ数と計算コストのごく一部で競合する結果を得るように設計されている。
論文 参考訳(メタデータ) (2020-02-10T16:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。