論文の概要: THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers
- arxiv url: http://arxiv.org/abs/2106.09336v1
- Date: Thu, 17 Jun 2021 09:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:51:55.464659
- Title: THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers
- Title(参考訳): THUNDR : マーカーを用いたトランスフォーマーによる3次元HUmaN再構成
- Authors: Mihai Zanfir, Andrei Zanfir, Eduard Gabriel Bazavan, William T.
Freeman, Rahul Sukthankar and Cristian Sminchisescu
- Abstract要約: THUNDRは、人の3Dポーズと形状を再構築するトランスフォーマーベースのディープニューラルネットワーク手法である。
完全教師付きモデルと自己教師型モデルの両方に対して,Human3.6Mと3DPWの最先端結果を示す。
野生で収集された難易度の高い人間のポーズに対して, 非常に堅固な3次元再構成性能を観察した。
- 参考スコア(独自算出の注目度): 67.8628917474705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present THUNDR, a transformer-based deep neural network methodology to
reconstruct the 3d pose and shape of people, given monocular RGB images. Key to
our methodology is an intermediate 3d marker representation, where we aim to
combine the predictive power of model-free-output architectures and the
regularizing, anthropometrically-preserving properties of a statistical human
surface model like GHUM -- a recently introduced, expressive full body
statistical 3d human model, trained end-to-end. Our novel transformer-based
prediction pipeline can focus on image regions relevant to the task, supports
self-supervised regimes, and ensures that solutions are consistent with human
anthropometry. We show state-of-the-art results on Human3.6M and 3DPW, for both
the fully-supervised and the self-supervised models, for the task of inferring
3d human shape, joint positions, and global translation. Moreover, we observe
very solid 3d reconstruction performance for difficult human poses collected in
the wild.
- Abstract(参考訳): モノクロRGB画像から3次元ポーズと形状を再構成するトランスフォーマーに基づくディープニューラルネットワーク手法THUNDRを提案する。
我々の方法論の鍵となるのは、モデルフリーな出力アーキテクチャの予測力と、GHUMのような統計的人体表面モデルの正規化、人文的保存特性を組み合わせることを目的とした、中間的な3dマーカー表現である。
提案するトランスフォーマティブに基づく予測パイプラインは,タスクに関連する画像領域に着目し,自己監視型レジームをサポートし,ソリューションが人間人類学的に一貫性があることを保証する。
完全教師型モデルと自己教師型モデルの両方に対してHuman3.6Mと3DPWの最先端結果を示し, 人体形状, 関節位置, グローバルトランスフォーメーションを推定するタスクについて検討した。
また,野生で採取した難易度の高いヒトの3次元復元性能も観察した。
関連論文リスト
- Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
私たちの定式化は、トレーニングとテスト時間の両方で、人間の体積の任意の点を問う能力に重点を置いています。
メッシュや2D/3Dスケルトン,密度の高いポーズなど,さまざまな注釈付きデータソースを,変換することなく自然に利用することが可能です。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - ConvFormer: Parameter Reduction in Transformer Models for 3D Human Pose
Estimation by Leveraging Dynamic Multi-Headed Convolutional Attention [0.0]
textbftextitConvFormerは、3D人間のポーズ推定タスクのための新しい畳み込み変換器である。
我々は,Human3.6M,MPI-INF-3DHP,HumanEvaの3つのベンチマークデータセットで本手法を検証した。
論文 参考訳(メタデータ) (2023-04-04T22:23:50Z) - A Modular Multi-stage Lightweight Graph Transformer Network for Human
Pose and Shape Estimation from 2D Human Pose [4.598337780022892]
提案手法では, 再現精度を犠牲にすることなく, 計算効率を優先する, ポーズに基づくヒューマンメッシュ再構築手法を提案する。
提案手法は,グラフトランスフォーマーを用いて2次元人間のポーズにおける構造的および暗黙的な関節関係を解析する2D-to-3Dリフトモジュールと,抽出したポーズ特徴とメッシュテンプレートを組み合わせたメッシュ回帰モジュールからなり,最終的なメッシュパラメータを生成する。
論文 参考訳(メタデータ) (2023-01-31T04:42:47Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - 3D Human Pose Estimation with Spatial and Temporal Transformers [59.433208652418976]
PoseFormerは、3D人間のポーズ推定のための純粋にトランスフォーマーベースのアプローチです。
近年の視覚変換器の発展に触発されて,空間時間変換器構造を設計する。
提案手法を2つの人気ベンチマークと標準ベンチマークで定量的に定性的に評価する。
論文 参考訳(メタデータ) (2021-03-18T18:14:37Z) - 3D Multi-bodies: Fitting Sets of Plausible 3D Human Models to Ambiguous
Image Data [77.57798334776353]
単眼・部分閉塞視からヒトの高密度3次元再構成を実現することの問題点を考察する。
身体の形状やポーズをパラメータ化することで、あいまいさをより効果的にモデル化できることを示唆する。
提案手法は, 3次元人間の標準ベンチマークにおいて, あいまいなポーズ回復において, 代替手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-02T13:55:31Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。