論文の概要: VolNet: Estimating Human Body Part Volumes from a Single RGB Image
- arxiv url: http://arxiv.org/abs/2107.02259v1
- Date: Mon, 5 Jul 2021 20:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:03:49.854249
- Title: VolNet: Estimating Human Body Part Volumes from a Single RGB Image
- Title(参考訳): VolNet:1枚のRGB画像から人体の一部を推定する
- Authors: Fabian Leinen, Vittorio Cozzolino, Torsten Sch\"on
- Abstract要約: VolNetは、単一の2D RGB画像から抽出された2Dと3Dのポーズ推定、身体部分のセグメンテーション、ボリュームレグレッションを利用するアーキテクチャである。
また,VolnetとResNeXtを併用することにより,容積を10%の許容閾値で82%のケースで正確に予測した。
これはBodyNetのような最先端のソリューションに比べて、わずか38%の成功率で大幅に改善されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human body volume estimation from a single RGB image is a challenging problem
despite minimal attention from the research community. However VolNet, an
architecture leveraging 2D and 3D pose estimation, body part segmentation and
volume regression extracted from a single 2D RGB image combined with the
subject's body height can be used to estimate the total body volume. VolNet is
designed to predict the 2D and 3D pose as well as the body part segmentation in
intermediate tasks. We generated a synthetic, large-scale dataset of
photo-realistic images of human bodies with a wide range of body shapes and
realistic poses called SURREALvols. By using Volnet and combining multiple
stacked hourglass networks together with ResNeXt, our model correctly predicted
the volume in ~82% of cases with a 10% tolerance threshold. This is a
considerable improvement compared to state-of-the-art solutions such as BodyNet
with only a ~38% success rate.
- Abstract(参考訳): 単一のRGB画像から人体体積を推定することは、研究コミュニティの注意を最小限に抑えながら難しい問題である。
しかし, 2次元および3次元ポーズ推定, 1つの2次元rgb画像から抽出した体部セグメント化, 容積回帰を, 被験者の体高と組み合わせることで, 総体容積を推定できる。
VolNetは2Dと3Dのポーズと中間タスクの身体部分のセグメンテーションを予測するように設計されている。
SURREALvolsと呼ばれる、幅広い身体形状とリアルなポーズを持つ、人間の身体の大規模な写真リアル画像の合成データセットを作成した。
volnetを使い、複数の砂時計ネットワークとresnextを組み合わせることで、このモデルは10%の許容しきい値を持つ82%のケースのボリュームを正確に予測した。
これはBodyNetのような最先端のソリューションに比べて、わずか38%の成功率で大幅に改善されている。
関連論文リスト
- A Simple Strategy for Body Estimation from Partial-View Images [8.05538560322898]
仮想試行と製品パーソナライズは、現代オンラインショッピングにおいてますます重要になってきており、正確な身体計測推定の必要性を強調している。
従来の研究では、RGB画像から3次元の身体形状を推定する研究が進んでいるが、画像中の人間の観察スケールは、距離と体次元の2つの未知の要因に依存するため、本質的に不明瞭である。
対象骨格を所望の位置に移動させ, スケールを正規化し, 両変数の関係を解消する, モジュラーで単純な高さ正規化法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:55:23Z) - Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - RIN: Textured Human Model Recovery and Imitation with a Single Image [4.87676530016726]
本稿では,1枚の画像からテクスチャ化された3Dモデルを構築するための新しいボリュームベースフレームワークを提案する。
具体的には、人間のテクスチャのほとんどを推定するために、U-Netのようなフロントエンド翻訳ネットワークを提案する。
実験の結果,人間の模倣には容積モデルが適切であることが示され,バックビューはネットワークを用いて確実に推定できることがわかった。
論文 参考訳(メタデータ) (2020-11-24T11:04:35Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - Reposing Humans by Warping 3D Features [18.688568898013482]
人間の画像から密集した特徴量について暗黙的に学習することを提案する。
ボリュームは畳み込みデコーダによってRGB空間にマッピングされる。
DeepFashionとiPERベンチマークの最先端結果は、密度の高い人間の表現が調査に値することを示している。
論文 参考訳(メタデータ) (2020-06-08T19:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。