論文の概要: Conditional Directed Graph Convolution for 3D Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2107.07797v1
- Date: Fri, 16 Jul 2021 09:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:39:40.489086
- Title: Conditional Directed Graph Convolution for 3D Human Pose Estimation
- Title(参考訳): 3次元人物位置推定のための条件付きグラフ畳み込み
- Authors: Wenbo Hu, Changgong Zhang, Fangneng Zhan, Lei Zhang, Tien-Tsin Wong
- Abstract要約: グラフ畳み込みネットワークは、人間の骨格を非方向グラフとして表現することで、人間のポーズ推定を大幅に改善した。
本稿では,人間の骨格をノードとして,骨を親関節から子関節へ向けたエッジとして有向グラフとして表現することを提案する。
- 参考スコア(独自算出の注目度): 23.376538132362498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks have significantly improved 3D human pose
estimation by representing the human skeleton as an undirected graph. However,
this representation fails to reflect the articulated characteristic of human
skeletons as the hierarchical orders among the joints are not explicitly
presented. In this paper, we propose to represent the human skeleton as a
directed graph with the joints as nodes and bones as edges that are directed
from parent joints to child joints. By so doing, the directions of edges can
explicitly reflect the hierarchical relationships among the nodes. Based on
this representation, we adopt the spatial-temporal directed graph convolution
(ST-DGConv) to extract features from 2D poses represented in a temporal
sequence of directed graphs. We further propose a spatial-temporal conditional
directed graph convolution (ST-CondDGConv) to leverage varying non-local
dependence for different poses by conditioning the graph topology on input
poses. Altogether, we form a U-shaped network with ST-DGConv and ST-CondDGConv
layers, named U-shaped Conditional Directed Graph Convolutional Network
(U-CondDGCN), for 3D human pose estimation from monocular videos. To evaluate
the effectiveness of our U-CondDGCN, we conducted extensive experiments on two
challenging large-scale benchmarks: Human3.6M and MPI-INF-3DHP. Both
quantitative and qualitative results show that our method achieves top
performance. Also, ablation studies show that directed graphs can better
exploit the hierarchy of articulated human skeletons than undirected graphs,
and the conditional connections can yield adaptive graph topologies for
different kinds of poses.
- Abstract(参考訳): グラフ畳み込みネットワークは、人間の骨格を無向グラフとして表現することで、3次元人間のポーズ推定を大幅に改善した。
しかし、この表現は関節の階層的な順序が明示的に示されないため、人間の骨格の明瞭な特徴を反映することができない。
本稿では,人間の骨格をノードとして,骨を親関節から子関節へ向けたエッジとして有向グラフとして表現することを提案する。
これにより、エッジの方向はノード間の階層的関係を明示的に反映することができる。
この表現に基づいて、空間時間有向グラフ畳み込み(ST-DGConv)を用いて、有向グラフの時間列で表される2次元ポーズの特徴を抽出する。
さらに、入力ポーズにグラフトポロジを条件付けることにより、異なるポーズに対する様々な非局所的依存を活用するための時空間有向グラフ畳み込み(ST-CondDGConv)を提案する。
また,ST-DGConv層とST-CondDGConv層を有するU字型ネットワークを構築し,U字型コンディショングラフ畳み込みネットワーク (U-CondDGCN) と名づけた。
U-CondDGCNの有効性を評価するため,Human3.6MとMPI-INF-3DHPの2つの大規模ベンチマーク実験を行った。
定量的および定性的な結果から,本手法が最高性能を達成した。
また,無向グラフよりも有向グラフの方が人間の骨格の階層構造をうまく利用でき,条件付き接続によって異なる種類のポーズに対して適応的なグラフトポロジーが得られることを示す。
関連論文リスト
- Dynamic Dense Graph Convolutional Network for Skeleton-based Human
Motion Prediction [14.825185477750479]
本稿では,高密度グラフを構築し,動的メッセージパッシングを実装した動的Dense Graph Convolutional Network (DD-GCN)を提案する。
そこで本研究では,データから動的に学習し,ユニークなメッセージを生成する動的メッセージパッシングフレームワークを提案する。
ベンチマークによるHuman 3.6MとCMU Mocapデータセットの実験は、DD-GCNの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-29T07:25:49Z) - Iterative Graph Filtering Network for 3D Human Pose Estimation [5.177947445379688]
グラフ畳み込みネットワーク(GCN)は3次元人間のポーズ推定に有効な手法であることが証明されている。
本稿では,3次元ポーズ推定のための反復グラフフィルタリングフレームワークを提案する。
我々のアプローチは、ラプラシア正規化によるグラフフィルタリングを反復的に解くという考え方に基づいている。
論文 参考訳(メタデータ) (2023-07-29T20:46:44Z) - Skeleton-Parted Graph Scattering Networks for 3D Human Motion Prediction [120.08257447708503]
体-関節関係をモデル化するグラフ畳み込みネットワークに基づく手法は,最近3次元骨格に基づく人間の動作予測において大きな可能性を示唆している。
骨格分割グラフ散乱ネットワーク(SPGSN)を提案する。
SPGSNは、Human3.6M、CMU Mocap、および3DPWデータセット上で、関節位置誤差(MPJPE)当たりの3D平均の13.8%、9.3%、および2.7%の差で最先端の手法を上回っている。
論文 参考訳(メタデータ) (2022-07-31T05:51:39Z) - Hierarchical Graph Networks for 3D Human Pose Estimation [50.600944798627786]
最近の2次元から3次元の人間のポーズ推定は、人間の骨格のトポロジーによって形成されたグラフ構造を利用する傾向がある。
この骨格トポロジーは体の構造を反映するには小さすぎるため、重度の2次元から3次元のあいまいさに悩まされていると我々は主張する。
本稿では,これらの弱点を克服するために,新しいグラフ畳み込みネットワークアーキテクチャである階層グラフネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T15:09:03Z) - Joint 3D Human Shape Recovery from A Single Imag with Bilayer-Graph [35.375489948345404]
画像から3次元の人物形状とポーズを推定するための2次元グラフ手法を提案する。
密なグラフから得られた粗いグラフを用いて、人間の3次元のポーズを推定し、密なグラフを使って3次元の形状を推定する。
エンド・ツー・エンドのモデルをトレーニングし、いくつかの評価データセットに対して最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-16T05:04:02Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - An Adversarial Human Pose Estimation Network Injected with Graph
Structure [75.08618278188209]
本稿では,いくつかの関節が見えない場合に,可視関節の局所化精度を向上させるために,新しいGAN(Generative Adversarial Network)を設計する。
ネットワークは、2つのシンプルで効率的なモジュール、カスケード機能ネットワーク(CFN)とグラフ構造ネットワーク(GSN)で構成されています。
論文 参考訳(メタデータ) (2021-03-29T12:07:08Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。