論文の概要: D-PoSE: Depth as an Intermediate Representation for 3D Human Pose and Shape Estimation
- arxiv url: http://arxiv.org/abs/2410.04889v1
- Date: Mon, 7 Oct 2024 10:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 01:27:55.630876
- Title: D-PoSE: Depth as an Intermediate Representation for 3D Human Pose and Shape Estimation
- Title(参考訳): D-PoSE:3次元人間の姿勢と形状推定のための中間表現としての深さ
- Authors: Nikolaos Vasilikopoulos, Drosakis Drosakis, Antonis Argyros,
- Abstract要約: D-PoSEは1枚のRGB画像から人間のポーズとSMPL-X形状パラメータを推定する1段階の手法である。
実世界のベンチマークデータセットEMDBと3DPWで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present D-PoSE (Depth as an Intermediate Representation for 3D Human Pose and Shape Estimation), a one-stage method that estimates human pose and SMPL-X shape parameters from a single RGB image. Recent works use larger models with transformer backbones and decoders to improve the accuracy in human pose and shape (HPS) benchmarks. D-PoSE proposes a vision based approach that uses the estimated human depth-maps as an intermediate representation for HPS and leverages training with synthetic data and the ground-truth depth-maps provided with them for depth supervision during training. Although trained on synthetic datasets, D-PoSE achieves state-of-the-art performance on the real-world benchmark datasets, EMDB and 3DPW. Despite its simple lightweight design and the CNN backbone, it outperforms ViT-based models that have a number of parameters that is larger by almost an order of magnitude. D-PoSE code is available at: https://github.com/nvasilik/D-PoSE
- Abstract(参考訳): D-PoSE (Depth as a Intermediate Representation for 3D Human Pose and Shape Estimation) は1枚のRGB画像から人間のポーズとSMPL-X形状パラメータを推定する1段階の手法である。
最近の研究は、人間のポーズと形状(HPS)ベンチマークの精度を改善するために、トランスフォーマーバックボーンとデコーダを備えたより大きなモデルを使用している。
D-PoSEは、推定された人間の深度マップをHPSの中間表現として使用し、合成データによるトレーニングと、トレーニング中の深度監視のためにそれらを備えた地上深度マップを利用する視覚ベースのアプローチを提案する。
合成データセットでトレーニングされているにもかかわらず、D-PoSEは実世界のベンチマークデータセットEMDBと3DPWで最先端のパフォーマンスを達成する。
シンプルな軽量な設計とCNNのバックボーンにもかかわらず、ViTベースのモデルよりも優れている。
D-PoSEコードは、https://github.com/nvasilik/D-PoSEで利用可能である。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
私たちの定式化は、トレーニングとテスト時間の両方で、人間の体積の任意の点を問う能力に重点を置いています。
メッシュや2D/3Dスケルトン,密度の高いポーズなど,さまざまな注釈付きデータソースを,変換することなく自然に利用することが可能です。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - VQ-HPS: Human Pose and Shape Estimation in a Vector-Quantized Latent Space [43.368963897752664]
この研究は、ヒューマン・ポースと形状推定の問題に対処する新しいパラダイムを導入している。
身体モデルパラメータを予測する代わりに、提案した離散潜在表現を予測することに重点を置いている。
提案モデルであるVQ-HPSはメッシュの離散潜在表現を予測する。
論文 参考訳(メタデータ) (2023-12-13T17:08:38Z) - Back to Optimization: Diffusion-based Zero-Shot 3D Human Pose Estimation [29.037799937729687]
学習に基づく手法は、従来の最適化に基づく手法よりも多くのベンチマークにおいて非常に優れた性能を持つ3Dヒューマンポーズ推定(HPE)タスクを支配している。
我々は3次元HPEのためのtextbfZero-shot textbfDiffusion-based textbfOptimization (textbfZeDO) パイプラインを提案する。
われわれはHuman3.6Mにおける最先端(SOTA)のパフォーマンスをminMPJPE$51.4$で達成している。
論文 参考訳(メタデータ) (2023-07-07T21:03:18Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z) - Synthetic Training for Accurate 3D Human Pose and Shape Estimation in
the Wild [27.14060158187953]
本稿では,RGB画像からの単眼立体形状とポーズ推定の問題に対処する。
本研究では, シルエットや2次元関節などのプロキシ表現を形状と回帰ニューラルネットワークの入力として利用するシステムであるSTRAPSを提案する。
STRAPSは形状予測精度においてSSP-3Dの他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-21T16:39:04Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。