論文の概要: Human Body Measurement Estimation with Adversarial Augmentation
- arxiv url: http://arxiv.org/abs/2210.05667v1
- Date: Tue, 11 Oct 2022 17:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 13:53:56.389690
- Title: Human Body Measurement Estimation with Adversarial Augmentation
- Title(参考訳): 逆行性増強による人体計測の推定
- Authors: Nataniel Ruiz, Miriam Bellver, Timo Bolkart, Ambuj Arora, Ming C. Lin,
Javier Romero, Raja Bala
- Abstract要約: シルエット画像から人体形状の3次元人為的計測を推定するための身体計測ネットワーク(BMnet)を提案する。
我々は、新しい対向体シミュレータ(ABS)でBMnetを拡張し、難易度の高い体形を発見し、合成する。
以上の結果から,ABSを用いたBMnetのトレーニングでは,Augmentationやランダムなボディ形状サンプリングに比べて,実物での計測精度を最大10%向上することがわかった。
- 参考スコア(独自算出の注目度): 28.934387668050224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Body Measurement network (BMnet) for estimating 3D
anthropomorphic measurements of the human body shape from silhouette images.
Training of BMnet is performed on data from real human subjects, and augmented
with a novel adversarial body simulator (ABS) that finds and synthesizes
challenging body shapes. ABS is based on the skinned multiperson linear (SMPL)
body model, and aims to maximize BMnet measurement prediction error with
respect to latent SMPL shape parameters. ABS is fully differentiable with
respect to these parameters, and trained end-to-end via backpropagation with
BMnet in the loop. Experiments show that ABS effectively discovers adversarial
examples, such as bodies with extreme body mass indices (BMI), consistent with
the rarity of extreme-BMI bodies in BMnet's training set. Thus ABS is able to
reveal gaps in training data and potential failures in predicting
under-represented body shapes. Results show that training BMnet with ABS
improves measurement prediction accuracy on real bodies by up to 10%, when
compared to no augmentation or random body shape sampling. Furthermore, our
method significantly outperforms SOTA measurement estimation methods by as much
as 3x. Finally, we release BodyM, the first challenging, large-scale dataset of
photo silhouettes and body measurements of real human subjects, to further
promote research in this area. Project website:
https://adversarialbodysim.github.io
- Abstract(参考訳): 本稿では,人体形状の3次元計測をシルエット画像から推定するボディー計測ネットワーク(bmnet)を提案する。
BMnetのトレーニングは、実際の被験者のデータに基づいて行われ、挑戦的な体形を発見し合成する新しい対人体シミュレータ(ABS)で強化される。
ABSはSkinned Multiperson linear (SMPL) body modelに基づいており、潜時SMPL形状パラメータに対するBMnet測定予測誤差を最大化することを目的としている。
ABSはこれらのパラメータに対して完全に微分可能であり、ループ内のBMnetによるバックプロパゲーションを通じて訓練されたエンドツーエンドである。
実験により、ABSは、BMnetのトレーニングセットにおける極端なBMIボディの希薄さと整合した、極端なBMI(overtical body mass indices)を持つ体のような敵の例を効果的に発見することが示された。
したがって、ABSは、未表現の身体形状を予測する際のトレーニングデータと潜在的な失敗のギャップを明らかにすることができる。
以上の結果から,ABSを用いたBMnetのトレーニングでは,Augmentationやランダムなボディ形状サンプリングに比べて,実物での計測精度を最大10%向上することがわかった。
さらに本手法は, sota測定推定法を最大3倍精度で上回っている。
最後に、本分野の研究をさらに促進するために、写真シルエットと実際の被験者の身体測定に関する最初の挑戦的な大規模データセットであるbodymをリリースする。
プロジェクトサイト: https://adversarialbodysim.github.io
関連論文リスト
- Leveraging Anthropometric Measurements to Improve Human Mesh Estimation and Ensure Consistent Body Shapes [12.932412290302258]
A2Bは人間のメッシュモデルの人体形状パラメータに変換するモデルである。
推定キーポイントの精度に関するHMEモデルより優れた細調整SOTA 3D人物ポーズ推定(HPE)モデルを示す。
また,HMEモデルの形状パラメータをA2Bモデルに置き換えることで,HMEモデルの性能が向上するだけでなく,一貫した形状になることを示す。
論文 参考訳(メタデータ) (2024-09-26T09:30:37Z) - BMI Prediction from Handwritten English Characters Using a Convolutional Neural Network [0.0]
これまでの研究では、筆跡解析のためのディープラーニング技術とBMI予測との間に明確な関連性は確立されなかった。
本稿では、畳み込みニューラルネットワーク(CNN)を開発し、手書き文字からBMIを推定するディープラーニングアプローチを用いて、この研究ギャップに対処する。
BMI予測タスクのために、小文字の英語スクリプトの48人のサンプルを含むデータセットを正常にキャプチャする。
論文 参考訳(メタデータ) (2024-09-04T10:06:42Z) - ShapeBoost: Boosting Human Shape Estimation with Part-Based
Parameterization and Clothing-Preserving Augmentation [58.50613393500561]
本研究では,新しい形状復元フレームワークであるShapeBoostを提案する。
稀な体型であってもピクセルレベルのアライメントを実現し、異なるタイプの服を着ている人には高い精度が期待できる。
論文 参考訳(メタデータ) (2024-03-02T23:40:23Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - Body Composition Estimation Based on Multimodal Multi-task Deep Neural
Network [0.0]
体組成は主に筋肉、脂肪、骨、水から構成される。
マルチモーダル多タスクディープニューラルネットワークを導入し,体脂肪率と骨格筋質量を推定した。
論文 参考訳(メタデータ) (2022-05-23T04:31:06Z) - Probabilistic Estimation of 3D Human Shape and Pose with a Semantic
Local Parametric Model [25.647676661390282]
本稿では,RGB画像からの3次元人体形状とポーズ推定の問題に対処する。
本研究では,局所的な身体形状の分布を意味的身体計測の形で予測する手法を提案する。
本手法は,身元依存の身体形状推定精度において,現在の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-30T13:50:45Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - 3D Human Body Reshaping with Anthropometric Modeling [59.51820187982793]
人間測定パラメータから正確で現実的な3D人体を再構築することは、個人識別、オンラインショッピング、仮想現実のための基本的な課題です。
このような3d形状を作る既存のアプローチは、レンジカメラやハイエンドスキャナーによる複雑な測定に苦しむことが多い。
本稿では,各ファセットに対する自動人為的パラメータモデリングを可能にする,特徴選択に基づく局所マッピング手法を提案する。
論文 参考訳(メタデータ) (2021-04-05T04:09:39Z) - Synthetic Training for Accurate 3D Human Pose and Shape Estimation in
the Wild [27.14060158187953]
本稿では,RGB画像からの単眼立体形状とポーズ推定の問題に対処する。
本研究では, シルエットや2次元関節などのプロキシ表現を形状と回帰ニューラルネットワークの入力として利用するシステムであるSTRAPSを提案する。
STRAPSは形状予測精度においてSSP-3Dの他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-21T16:39:04Z) - HEMlets PoSh: Learning Part-Centric Heatmap Triplets for 3D Human Pose
and Shape Estimation [60.35776484235304]
本研究は, 中間状態部分熱マップトリプレット(HEMlets)を導入し, 検出された2次元関節を三次元空間に持ち上げる不確実性に対処しようとするものである。
HEMletsは3つのジョイントヒートマップを使用して、各骨格体部に対するエンドジョイントの相対的な深さ情報を表す。
Convolutional Network (ConvNet) は、入力画像からHEMletを予測し、次にボリュームのジョイント・ヒートマップレグレッションを学習する。
論文 参考訳(メタデータ) (2020-03-10T04:03:45Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。