論文の概要: Single Person Pose Estimation: A Survey
- arxiv url: http://arxiv.org/abs/2109.10056v1
- Date: Tue, 21 Sep 2021 09:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 21:09:29.953893
- Title: Single Person Pose Estimation: A Survey
- Title(参考訳): 一人当たりのポーズ推定:調査
- Authors: Feng Zhang, Xiatian Zhu, and Chen Wang
- Abstract要約: 制約のない画像やビデオにおける人間のポーズ推定は、基本的なコンピュータビジョンタスクである。
本稿では, 人間の代表的ポーズ法を構造化分類法で要約し, 特に深層学習モデルと一対一のイメージ設定に着目した。
我々は、データ拡張、モデルアーキテクチャ、バックボーンを含む典型的な人間のポーズ推定パイプラインのすべてのコンポーネントを調べ、調査する。
- 参考スコア(独自算出の注目度): 45.144269986277365
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human pose estimation in unconstrained images and videos is a fundamental
computer vision task. To illustrate the evolutionary path in technique, in this
survey we summarize representative human pose methods in a structured taxonomy,
with a particular focus on deep learning models and single-person image
setting. Specifically, we examine and survey all the components of a typical
human pose estimation pipeline, including data augmentation, model architecture
and backbone, supervision representation, post-processing, standard datasets,
evaluation metrics. To envisage the future directions, we finally discuss the
key unsolved problems and potential trends for human pose estimation.
- Abstract(参考訳): 制約のない画像やビデオにおける人間のポーズ推定は、基本的なコンピュータビジョンタスクである。
この技術の進化的経路を説明するため,本研究では,構造化分類学において代表的人間のポーズ法を要約し,深層学習モデルと一人称画像設定に焦点をあてた。
具体的には、データ強化、モデルアーキテクチャとバックボーン、監督表現、後処理、標準データセット、評価指標を含む、典型的な人間のポーズ推定パイプラインのすべてのコンポーネントを調べ、調査する。
今後の方向性を考察するため,人間のポーズ推定の鍵となる未解決問題と潜在的な傾向について論じる。
関連論文リスト
- A Survey on 3D Egocentric Human Pose Estimation [3.5845457075304363]
エゴセントリックな人間のポーズ推定は、人間のポーズを推定し、ファースト・パーソン・カメラの観点から身体表現を開発することを目的としている。
近年、XR技術、人間とコンピュータのインタラクション、フィットネストラッキングといった分野に幅広く応用されているため、広く普及している。
エゴセントリックな3次元ポーズ推定に関する提案された解決策に基づく体系的な文献レビューは行われていない。
論文 参考訳(メタデータ) (2024-03-26T17:29:26Z) - Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - Understanding Pose and Appearance Disentanglement in 3D Human Pose
Estimation [72.50214227616728]
ポーズ情報から外見情報を引き離すために,自己教師型で画像表現を学習する手法がいくつか提案されている。
我々は,多種多様な画像合成実験を通じて,自己教師ネットワークの観点から,ゆがみについて検討する。
我々は,対象の自然な外見変化を生起することに焦点を当てた敵対的戦略を設計し,その反対に,絡み合ったネットワークが堅牢であることを期待している。
論文 参考訳(メタデータ) (2023-09-20T22:22:21Z) - 2D Human Pose Estimation: A Survey [16.56050212383859]
人間のポーズ推定は、入力データ中の人間の解剖学的キーポイントまたは身体部分のローカライズを目的としている。
ディープラーニング技術は、データから直接特徴表現を学習することを可能にする。
本稿では,近年の2次元ポーズ推定手法の成果を振り返り,包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-15T08:09:43Z) - A survey of top-down approaches for human pose estimation [0.0]
Deep Learningで実装された最先端の手法は、人間のポーズ推定の分野で顕著な成果をもたらした。
本稿では,人々のポーズを認識するための深層学習手法に基づく2次元画像の広範なレビューを新参者に提供することを目的とする。
論文 参考訳(メタデータ) (2022-02-05T23:27:46Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Deep Learning-Based Human Pose Estimation: A Survey [66.01917727294163]
人間のポーズ推定は、過去10年間に注目を集めてきた。
ヒューマン・コンピュータ・インタラクション、モーション・アナリティクス、拡張現実、バーチャル・リアリティーなど幅広い用途で利用されている。
最近のディープラーニングベースのソリューションは、人間のポーズ推定において高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-12-24T18:49:06Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Monocular Human Pose Estimation: A Survey of Deep Learning-based Methods [25.3614052943568]
視覚に基づく単眼の人間のポーズ推定は、コンピュータビジョンにおける最も根本的で困難な問題の1つである。
近年の深層学習技術の発展は、人間のポーズ推定分野において顕著な進歩と画期的なブレークスルーをもたらしている。
論文 参考訳(メタデータ) (2020-06-02T07:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。