論文の概要: Unsupervised 3D Human Pose Representation with Viewpoint and Pose
Disentanglement
- arxiv url: http://arxiv.org/abs/2007.07053v2
- Date: Tue, 2 Nov 2021 03:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:01:56.605701
- Title: Unsupervised 3D Human Pose Representation with Viewpoint and Pose
Disentanglement
- Title(参考訳): 視点とポーズの絡み合いを考慮した教師なし3次元ポーズ表現
- Authors: Qiang Nie, Ziwei Liu, Yunhui Liu
- Abstract要約: 優れた3次元ポーズ表現を学習することは、人間のポーズ関連タスクにとって重要である。
本稿では,3次元ポーズ表現を学習するために,新しいシームズ・デノナイズドオートエンコーダを提案する。
提案手法は,2つの本質的に異なるタスクに対して,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 63.853412753242615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning a good 3D human pose representation is important for human pose
related tasks, e.g. human 3D pose estimation and action recognition. Within all
these problems, preserving the intrinsic pose information and adapting to view
variations are two critical issues. In this work, we propose a novel Siamese
denoising autoencoder to learn a 3D pose representation by disentangling the
pose-dependent and view-dependent feature from the human skeleton data, in a
fully unsupervised manner. These two disentangled features are utilized
together as the representation of the 3D pose. To consider both the kinematic
and geometric dependencies, a sequential bidirectional recursive network
(SeBiReNet) is further proposed to model the human skeleton data. Extensive
experiments demonstrate that the learned representation 1) preserves the
intrinsic information of human pose, 2) shows good transferability across
datasets and tasks. Notably, our approach achieves state-of-the-art performance
on two inherently different tasks: pose denoising and unsupervised action
recognition. Code and models are available at:
\url{https://github.com/NIEQiang001/unsupervised-human-pose.git}
- Abstract(参考訳): 優れた3Dポーズ表現を学ぶことは、人間のポーズ関連タスク、例えば人間の3Dポーズ推定やアクション認識にとって重要である。
これらすべての問題の中で、本質的なポーズ情報を保持し、ビューのバリエーションに適応することは2つの重要な問題である。
本研究では,人間の骨格データからポーズ依存的およびビュー依存的特徴を完全に教師なしの方法で抽出し,3次元ポーズ表現を学習する新規なシアーム・デノージング・オートエンコーダを提案する。
これら2つの歪んだ特徴を3Dポーズの表現として併用する。
キネマティックおよび幾何学的依存性を考慮するために、ヒト骨格データをモデル化するためにシーケンシャル双方向再帰ネットワーク(sebirenet)が提案されている。
広範な実験は 学習された表現が
1)人間のポーズの固有情報を保存する。
2) データセットとタスク間の良好な転送性を示す。
特に,提案手法は,2つの本質的に異なるタスク – 行動認知と教師なし行動認識 – に対して,最先端のパフォーマンスを実現する。
コードとモデルは: \url{https://github.com/NIEQiang001/unsupervised- Human-pose.git}
関連論文リスト
- Understanding Pose and Appearance Disentanglement in 3D Human Pose
Estimation [72.50214227616728]
ポーズ情報から外見情報を引き離すために,自己教師型で画像表現を学習する手法がいくつか提案されている。
我々は,多種多様な画像合成実験を通じて,自己教師ネットワークの観点から,ゆがみについて検討する。
我々は,対象の自然な外見変化を生起することに焦点を当てた敵対的戦略を設計し,その反対に,絡み合ったネットワークが堅牢であることを期待している。
論文 参考訳(メタデータ) (2023-09-20T22:22:21Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Chained Representation Cycling: Learning to Estimate 3D Human Pose and
Shape by Cycling Between Representations [73.11883464562895]
本稿では,教師なし,あるいは教師なしの学習を容易にする新しいアーキテクチャを提案する。
本研究では,非ペア画像と無注釈画像から3次元人物のポーズと形状を学習することにより,その手法を実証する。
人間をモデル化するための結果を示す一方で、私たちの定式化は一般的であり、他の視覚問題にも適用できる。
論文 参考訳(メタデータ) (2020-01-06T14:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。