論文の概要: Back to the Future: Joint Aware Temporal Deep Learning 3D Human Pose
Estimation
- arxiv url: http://arxiv.org/abs/2002.11251v1
- Date: Sat, 22 Feb 2020 10:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:20:26.086180
- Title: Back to the Future: Joint Aware Temporal Deep Learning 3D Human Pose
Estimation
- Title(参考訳): 未来へ: 時間的深層学習による人間の3D推定
- Authors: Vikas Gupta
- Abstract要約: 我々は,3次元ビデオ人体ポーズ推定における関節位置と動作誤差を低減するために,より深いCNNチャネルフィルタと制約を導入した新しいディープラーニングネットワークを提案する。
本モデルでは, 位置誤差の平均値, 速度誤差, 加速度誤差に基づいて, 従来の結果よりも優れていた。
我々のコントリビューションは、位置精度の向上と動画の運動の滑らかさを、ネットワークの複雑さを増大させることなく、将来のエンドツーエンドネットワークと統合することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new deep learning network that introduces a deeper CNN channel
filter and constraints as losses to reduce joint position and motion errors for
3D video human body pose estimation. Our model outperforms the previous best
result from the literature based on mean per-joint position error, velocity
error, and acceleration errors on the Human 3.6M benchmark corresponding to a
new state-of-the-art mean error reduction in all protocols and motion metrics.
Mean per joint error is reduced by 1%, velocity error by 7% and acceleration by
13% compared to the best results from the literature. Our contribution
increasing positional accuracy and motion smoothness in video can be integrated
with future end to end networks without increasing network complexity. Our
model and code are available at https://vnmr.github.io/
Keywords: 3D, human, image, pose, action, detection, object, video, visual,
supervised, joint, kinematic
- Abstract(参考訳): 我々は,3次元ビデオ人体ポーズ推定における関節位置と動作誤差を低減するために,より深いCNNチャネルフィルタと制約を導入した新しいディープラーニングネットワークを提案する。
提案モデルは,すべてのプロトコルと動作メトリクスにおいて,新たな最先端平均誤差低減に対応するヒューマン3.6mベンチマークにおいて,ジョイント単位の平均位置誤差,速度誤差,加速度誤差に基づく文献から得られた最良結果を上回っている。
1関節当たりの平均誤差は1%減少し, 速度誤差は7%, 加速度は13%低下した。
映像における位置精度と動きの円滑性の向上は,ネットワークの複雑さを増すことなく,将来的なエンドツーエンドネットワークと統合できる。
私たちのモデルとコードは、https://vnmr.github.io/キーワードで利用可能です。 3d, human, image, pose, action, detection, object, video, visual, supervised, joint, kinematic
関連論文リスト
- NIKI: Neural Inverse Kinematics with Invertible Neural Networks for 3D
Human Pose and Shape Estimation [53.25973084799954]
両方向誤差をモデル化したNIKI(Neural Inverse Kinematics with Invertible Neural Network)を提案する。
NIKIは、非可逆ネットワークによる前処理と逆処理の両方から学習することができる。
論文 参考訳(メタデータ) (2023-05-15T12:13:24Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - Learning Dynamical Human-Joint Affinity for 3D Pose Estimation in Videos [47.601288796052714]
Graph Convolution Network (GCN)は、ビデオにおける3次元人間のポーズ推定に成功している。
新しい動的グラフネットワーク(DGNet)は、ビデオから空間的・時間的関節関係を適応的に学習することにより、3次元のポーズを推定できる。
論文 参考訳(メタデータ) (2021-09-15T15:06:19Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Multi-Scale Networks for 3D Human Pose Estimation with Inference Stage
Optimization [33.02708860641971]
モノクロビデオから3Dのポーズを推定することは、まだまだ難しい課題だ。
既存の多くのメソッドは、対象の人が他のオブジェクトに干渉されたり、トレーニングデータのスケールや速度に対して動きが速すぎたり、遅くなったりすると低下する。
頑健な3次元ポーズ推定のための時間的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T15:24:28Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - PoseNet3D: Learning Temporally Consistent 3D Human Pose via Knowledge
Distillation [6.023152721616894]
PoseNet3Dは入力として2D関節を取り、3DスケルトンとSMPLボディモデルパラメータを出力する。
まず,3Dスケルトンを出力する教師ネットワークをトレーニングし,その知識をSMPL表現で3Dスケルトンを予測する学生ネットワークに抽出する。
3次元ポーズ推定のためのHuman3.6Mデータセットの結果,従来の教師なし手法と比較して3次元関節予測誤差が18%減少することが示された。
論文 参考訳(メタデータ) (2020-03-07T00:10:59Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。