論文の概要: Invariant Teacher and Equivariant Student for Unsupervised 3D Human Pose
Estimation
- arxiv url: http://arxiv.org/abs/2012.09398v1
- Date: Thu, 17 Dec 2020 05:32:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-02 07:27:45.945603
- Title: Invariant Teacher and Equivariant Student for Unsupervised 3D Human Pose
Estimation
- Title(参考訳): 教師なし3次元姿勢推定のための不変教師と同変学生
- Authors: Chenxin Xu, Siheng Chen, Maosen Li, Ya Zhang
- Abstract要約: 3次元人間ポーズ推定のための教師学習フレームワークに基づく新しい手法を提案する。
本手法は最先端の教師なし手法と比較して3次元関節予測誤差を11.4%削減する。
- 参考スコア(独自算出の注目度): 28.83582658618296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method based on teacher-student learning framework for 3D
human pose estimation without any 3D annotation or side information. To solve
this unsupervised-learning problem, the teacher network adopts
pose-dictionary-based modeling for regularization to estimate a physically
plausible 3D pose. To handle the decomposition ambiguity in the teacher
network, we propose a cycle-consistent architecture promoting a 3D
rotation-invariant property to train the teacher network. To further improve
the estimation accuracy, the student network adopts a novel graph convolution
network for flexibility to directly estimate the 3D coordinates. Another
cycle-consistent architecture promoting 3D rotation-equivariant property is
adopted to exploit geometry consistency, together with knowledge distillation
from the teacher network to improve the pose estimation performance. We conduct
extensive experiments on Human3.6M and MPI-INF-3DHP. Our method reduces the 3D
joint prediction error by 11.4% compared to state-of-the-art unsupervised
methods and also outperforms many weakly-supervised methods that use side
information on Human3.6M. Code will be available at
https://github.com/sjtuxcx/ITES.
- Abstract(参考訳): 3dアノテーションやサイド情報のない3次元ポーズ推定のための教師・学生学習フレームワークに基づく新しい手法を提案する。
教師ネットワークでは,この教師の学習課題を解決するために,ポーズディクショナリーモデルを用いて正規化を行い,物理的に妥当な3dポーズを推定する。
教師ネットワークにおける分解のあいまいさに対処するため,教師ネットワークをトレーニングするための3次元回転不変性を促進するサイクル一貫性アーキテクチャを提案する。
推定精度をさらに向上するため、学生ネットワークは3D座標を直接推定するフレキシビリティのための新しいグラフ畳み込みネットワークを採用している。
3次元回転同値性を促進するもう一つのサイクル一貫性アーキテクチャは、幾何学的一貫性を活用し、教師ネットワークからの知識蒸留と合わせてポーズ推定性能を向上させる。
我々はHuman3.6MとMPI-INF-3DHPについて広範な実験を行った。
本手法は,最先端の非教師付き手法と比較して3次元関節予測誤差を11.4%削減し,Human3.6Mの側情報を用いた弱い教師付き手法よりも優れている。
コードはhttps://github.com/sjtuxcx/ITESで入手できる。
関連論文リスト
- PoseTriplet: Co-evolving 3D Human Pose Estimation, Imitation, and
Hallucination under Self-supervision [102.48681650013698]
既存の自己監督型3次元ポーズ推定スキームは、学習を導くための弱い監督に大きく依存している。
そこで我々は,2D-3Dのポーズペアを明示的に生成し,監督を増強する,新しい自己監督手法を提案する。
これは、ポーズ推定器とポーズ幻覚器を併用して学習する強化学習ベースの模倣器を導入することで可能となる。
論文 参考訳(メタデータ) (2022-03-29T14:45:53Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Self-supervision on Unlabelled OR Data for Multi-person 2D/3D Human Pose
Estimation [2.8802646903517957]
2D/3D人間のポーズ推定は手術室のための新しいインテリジェントなツールを開発するために必要である。
本稿では,教師/学生のフレームワークにおける知識蒸留を用いて,大規模な非注釈データセットに存在する知識を活用することを提案する。
この効果的なセルフスーパービジョン戦略を用いてトレーニングされた容易にデプロイ可能なネットワークは、公開MVORデータセットの拡張であるemphMVOR+の教師ネットワークと同等に実行される。
論文 参考訳(メタデータ) (2020-07-16T14:28:22Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z) - PoseNet3D: Learning Temporally Consistent 3D Human Pose via Knowledge
Distillation [6.023152721616894]
PoseNet3Dは入力として2D関節を取り、3DスケルトンとSMPLボディモデルパラメータを出力する。
まず,3Dスケルトンを出力する教師ネットワークをトレーニングし,その知識をSMPL表現で3Dスケルトンを予測する学生ネットワークに抽出する。
3次元ポーズ推定のためのHuman3.6Mデータセットの結果,従来の教師なし手法と比較して3次元関節予測誤差が18%減少することが示された。
論文 参考訳(メタデータ) (2020-03-07T00:10:59Z) - Lightweight 3D Human Pose Estimation Network Training Using
Teacher-Student Learning [15.321557614896268]
MoVNectは軽量なディープニューラルネットワークで、単一のRGBカメラを使用して3D人間のポーズをキャプチャする。
本研究では,教師の学習方法に基づく知識蒸留を3次元ポーズ推定に適用する。
モバイルで動作する3Dアバターアプリケーションをリアルタイムに実装し,ネットワークが高精度かつ高速な推論時間を実現することを示す。
論文 参考訳(メタデータ) (2020-01-15T01:31:01Z) - Chained Representation Cycling: Learning to Estimate 3D Human Pose and
Shape by Cycling Between Representations [73.11883464562895]
本稿では,教師なし,あるいは教師なしの学習を容易にする新しいアーキテクチャを提案する。
本研究では,非ペア画像と無注釈画像から3次元人物のポーズと形状を学習することにより,その手法を実証する。
人間をモデル化するための結果を示す一方で、私たちの定式化は一般的であり、他の視覚問題にも適用できる。
論文 参考訳(メタデータ) (2020-01-06T14:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。