論文の概要: Learning Dynamical Human-Joint Affinity for 3D Pose Estimation in Videos
- arxiv url: http://arxiv.org/abs/2109.07353v1
- Date: Wed, 15 Sep 2021 15:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:57:55.700295
- Title: Learning Dynamical Human-Joint Affinity for 3D Pose Estimation in Videos
- Title(参考訳): 映像における3次元ポーズ推定のための学習動的ヒューマンジョイント親和性
- Authors: Junhao Zhang, Yali Wang, Zhipeng Zhou, Tianyu Luan, Zhe Wang, Yu Qiao
- Abstract要約: Graph Convolution Network (GCN)は、ビデオにおける3次元人間のポーズ推定に成功している。
新しい動的グラフネットワーク(DGNet)は、ビデオから空間的・時間的関節関係を適応的に学習することにより、3次元のポーズを推定できる。
- 参考スコア(独自算出の注目度): 47.601288796052714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolution Network (GCN) has been successfully used for 3D human pose
estimation in videos. However, it is often built on the fixed human-joint
affinity, according to human skeleton. This may reduce adaptation capacity of
GCN to tackle complex spatio-temporal pose variations in videos. To alleviate
this problem, we propose a novel Dynamical Graph Network (DG-Net), which can
dynamically identify human-joint affinity, and estimate 3D pose by adaptively
learning spatial/temporal joint relations from videos. Different from
traditional graph convolution, we introduce Dynamical Spatial/Temporal Graph
convolution (DSG/DTG) to discover spatial/temporal human-joint affinity for
each video exemplar, depending on spatial distance/temporal movement similarity
between human joints in this video. Hence, they can effectively understand
which joints are spatially closer and/or have consistent motion, for reducing
depth ambiguity and/or motion uncertainty when lifting 2D pose to 3D pose. We
conduct extensive experiments on three popular benchmarks, e.g., Human3.6M,
HumanEva-I, and MPI-INF-3DHP, where DG-Net outperforms a number of recent SOTA
approaches with fewer input frames and model size.
- Abstract(参考訳): Graph Convolution Network (GCN)は、ビデオにおける3次元人間のポーズ推定に成功している。
しかし、人間の骨格によれば、固定されたヒトの結合親和性の上に構築されることが多い。
これにより、ビデオの複雑な時空間ポーズ変動に取り組むためのGCNの適応能力が低下する可能性がある。
この問題を軽減するために,人間同士の親和性を動的に識別できる新しい動的グラフネットワーク(DG-Net)を提案し,ビデオから空間的・時間的関節関係を適応的に学習することで3次元ポーズを推定する。
従来のグラフ畳み込みと異なり, 動的空間的/時間的グラフ畳み込み(dsg/dtg)を導入することで, ヒト関節間の空間的距離/時間的動きの類似性に応じて, それぞれの映像例に対する空間的/時間的ヒューマン・ジョイント親和性を検出する。
これにより、2Dポーズを3Dポーズに持ち上げる際に、どの関節が空間的に近づいたり、あるいは一貫した動きを持っているかを効果的に理解することができる。
我々は、Human3.6M、HumanEva-I、MPI-INF-3DHPの3つの人気のあるベンチマークで大規模な実験を行い、DG-Netはより少ない入力フレームとモデルサイズで多くのSOTAアプローチより優れています。
関連論文リスト
- 3D-UGCN: A Unified Graph Convolutional Network for Robust 3D Human Pose Estimation from Monocular RGB Images [17.673385426594418]
本稿では,空間時間グラフ畳み込みネットワーク(UGCN)に基づく改良手法を提案する。
ネットワークが3次元人間のポーズデータを処理し、3次元人間のポーズスケルトン配列を改善するための改良Nを提案する。
論文 参考訳(メタデータ) (2024-07-23T02:50:27Z) - STGFormer: Spatio-Temporal GraphFormer for 3D Human Pose Estimation in Video [7.345621536750547]
本稿では,映像中の3次元ポーズ推定のためのグラフベースのフレームワークを提案する。
具体的には,各アテンション層に直接グラフ情報を統合するグラフベースのアテンションメカニズムを開発する。
提案手法は,3次元人物のポーズ推定において,最先端の性能を実現することを実証する。
論文 参考訳(メタデータ) (2024-07-14T06:45:27Z) - A hybrid classification-regression approach for 3D hand pose estimation
using graph convolutional networks [1.0152838128195467]
目的ごとの関係制約を学習する2段階のGCNベースのフレームワークを提案する。
第1フェーズは2D/3D空間を量子化し、その局所性に基づいて関節を2D/3Dブロックに分類する。
第2段階ではGCNベースのモジュールを使用し、隣り合う適応アルゴリズムを用いて関節関係を決定する。
論文 参考訳(メタデータ) (2021-05-23T10:09:10Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z) - Graph and Temporal Convolutional Networks for 3D Multi-person Pose
Estimation in Monocular Videos [33.974241749058585]
本稿では, グラフ畳み込みネットワーク(GCN)と時間畳み込みネットワーク(TCN)を統合し, カメラ中心のマルチパーソナライズされた3Dポーズを頑健に推定するフレームワークを提案する。
特に,姿勢推定結果を改善するために,2次元ポーズ推定器の信頼度スコアを用いたヒューマンジョイントgcnを提案する。
2つのGCNが連携して空間的なフレーム回りの3Dポーズを推定し、ターゲットフレーム内の可視関節情報と骨情報の両方を使用して、人の一部または欠落した情報を推定します。
論文 参考訳(メタデータ) (2020-12-22T03:01:19Z) - HMOR: Hierarchical Multi-Person Ordinal Relations for Monocular
Multi-Person 3D Pose Estimation [54.23770284299979]
本稿では, 階層型多人数常連関係(HMOR)を新たに導入する。
HMORは相互作用情報を階層的に深さと角度の順序関係として符号化する。
統合トップダウンモデルは、学習プロセスにおけるこれらの順序関係を活用するように設計されている。
提案手法は, 公開されている多人数の3Dポーズデータセットにおいて, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-08-01T07:53:27Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。