論文の概要: Learning Anthropometry from Rendered Humans
- arxiv url: http://arxiv.org/abs/2101.02515v1
- Date: Thu, 7 Jan 2021 12:26:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 16:38:59.443031
- Title: Learning Anthropometry from Rendered Humans
- Title(参考訳): レンダーヒトからの人体計測の学習
- Authors: Song Yan and Joni-Kristian K\"am\"ar\"ainen
- Abstract要約: 2,675人の女性と1,474男性のスキャンの新しい3Dスキャンデータセットを紹介します。
我々はまた、200 RGB画像とテープ測定地上真実の小さなデータセットを紹介します。
2つの新しいデータセットの助けを借りて,2次元画像から人文計測を推定する部分型形状モデルと深層ニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 6.939794498223168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate estimation of anthropometric body measurements from RGB images has
many potential applications in industrial design, online clothing, medical
diagnosis and ergonomics. Research on this topic is limited by the fact that
there exist only generated datasets which are based on fitting a 3D body mesh
to 3D body scans in the commercial CAESAR dataset. For 2D only silhouettes are
generated. To circumvent the data bottleneck, we introduce a new 3D scan
dataset of 2,675 female and 1,474 male scans. We also introduce a small dataset
of 200 RGB images and tape measured ground truth. With the help of the two new
datasets we propose a part-based shape model and a deep neural network for
estimating anthropometric measurements from 2D images. All data will be made
publicly available.
- Abstract(参考訳): RGB画像からの人体計測の正確な推定は、産業デザイン、オンライン衣服、医療診断、エルゴノミクスに多くの可能性を持つ。
このトピックの研究は、商用CAESARデータセットの3Dボディスキャンに3Dボディメッシュを適合させることに基づいて生成されたデータセットのみが存在するという事実によって制限されている。
2dではシルエットのみが生成される。
データボトルネックを回避するために,2,675名の女性と1,474名の男性による新たな3dスキャンデータセットを導入する。
また,200枚のRGB画像とテープ計測地上真実の小さなデータセットも導入した。
2つの新しいデータセットの助けを借りて,2次元画像から人文計測を推定する部分型形状モデルと深層ニューラルネットワークを提案する。
すべてのデータは公開される予定だ。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - SCULPT: Shape-Conditioned Unpaired Learning of Pose-dependent Clothed and Textured Human Meshes [62.82552328188602]
SCULPTは,人間の布とテクスチャを用いた3次元メッシュの新規な3次元生成モデルである。
我々は, 被服体の形状と外観分布を表現できるディープニューラルネットワークを考案した。
論文 参考訳(メタデータ) (2023-08-21T11:23:25Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - SHARP: Shape-Aware Reconstruction of People in Loose Clothing [6.469298908778292]
SHARP(Shape Aware Reconstruction of People in loose clothes)は、エンド・ツー・エンドのトレーニング可能な新しいネットワークである。
モノクロ画像から、ゆるい服を着た人間の3D形状と外観を復元する。
従来の最先端手法よりも質的かつ定量的な性能を示す。
論文 参考訳(メタデータ) (2022-05-24T10:26:42Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z) - A Neural Anthropometer Learning from Body Dimensions Computed on Human
3D Meshes [0.0]
本稿では,3次元メッシュの左右腕長,肩幅,切削高さ(クロッチ高さ)を,医療・バーチャル・トライオン・距離調整への応用に焦点をあてて算出する手法を提案する。
一方、最近発表された手法を用いて計算された4つの追加の体次元を用いて、8つの体次元の集合を組み立て、これら次元を推定できる畳み込みニューラルネットワークであるニューラル・アントロポメータの監視信号として使用する。
論文 参考訳(メタデータ) (2021-10-06T12:56:05Z) - SHARP: Shape-Aware Reconstruction of People In Loose Clothing [6.796748304066826]
単眼画像からの3D人体再構築は、コンピュータビジョンにおける興味深い問題であり、不適切な問題である。
本研究では,モノクロ画像から,ゆるい服装の3D人物の詳細な形状と外観を正確に復元する,エンドツーエンドのトレーニング可能なネットワークであるSHARPを提案する。
公開されているClos3DおよびTHumanデータセット上でSHARPを評価し、最先端のアプローチに優れた性能を報告した。
論文 参考訳(メタデータ) (2021-06-09T02:54:53Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。