論文の概要: UniPose: Unified Human Pose Estimation in Single Images and Videos
- arxiv url: http://arxiv.org/abs/2001.08095v1
- Date: Wed, 22 Jan 2020 15:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:38:23.894925
- Title: UniPose: Unified Human Pose Estimation in Single Images and Videos
- Title(参考訳): UniPose: 単一画像とビデオにおける統一された人文推定
- Authors: Bruno Artacho and Andreas Savakis
- Abstract要約: 本稿では,我々の「ウォーターフォール」アトラス空間ポーリングアーキテクチャに基づく,人間のポーズ推定のための統一的なフレームワークを提案する。
UniPoseは、コンテキストセグメンテーションとジョイントローカライゼーションを取り入れて、人間のポーズを単一のステージで推定する。
複数のデータセットで得られた結果は、ResNetのバックボーンとウォーターフォールモジュールを備えたUniPoseが、ポーズ推定のための堅牢で効率的なアーキテクチャであることを実証している。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose UniPose, a unified framework for human pose estimation, based on
our "Waterfall" Atrous Spatial Pooling architecture, that achieves
state-of-art-results on several pose estimation metrics. Current pose
estimation methods utilizing standard CNN architectures heavily rely on
statistical postprocessing or predefined anchor poses for joint localization.
UniPose incorporates contextual segmentation and joint localization to estimate
the human pose in a single stage, with high accuracy, without relying on
statistical postprocessing methods. The Waterfall module in UniPose leverages
the efficiency of progressive filtering in the cascade architecture, while
maintaining multi-scale fields-of-view comparable to spatial pyramid
configurations. Additionally, our method is extended to UniPose-LSTM for
multi-frame processing and achieves state-of-the-art results for temporal pose
estimation in Video. Our results on multiple datasets demonstrate that UniPose,
with a ResNet backbone and Waterfall module, is a robust and efficient
architecture for pose estimation obtaining state-of-the-art results in single
person pose detection for both single images and videos.
- Abstract(参考訳): そこで本稿では,いくつかのポーズ推定指標の最先端評価を実現する,我々の"ウォーターフォール"型空間プーリングアーキテクチャに基づく,人間のポーズ推定のための統一フレームワークであるuniposeを提案する。
標準cnnアーキテクチャを用いた現在のポーズ推定手法は、統計的後処理や事前定義されたアンカーポーズに大きく依存している。
UniPoseはコンテキストセグメンテーションとジョイントローカライゼーションを導入し、統計的ポストプロセッシング手法に頼ることなく、1つの段階で人間のポーズを高精度に推定する。
uniposeのウォーターフォールモジュールはカスケードアーキテクチャにおけるプログレッシブフィルタリングの効率を生かしつつ、空間ピラミッド構成に匹敵するマルチスケールの視野を維持する。
さらに,本手法はマルチフレーム処理のためにUniPose-LSTMに拡張され,ビデオにおける時間的ポーズ推定のための最先端結果が得られる。
複数のデータセットに対する結果から,ResNetのバックボーンとウォーターフォールモジュールを備えたUniPoseは,単一画像とビデオの両方のポーズ検出において,最先端のポーズ推定を行うための堅牢かつ効率的なアーキテクチャであることが示された。
関連論文リスト
- UNOPose: Unseen Object Pose Estimation with an Unposed RGB-D Reference Image [86.7128543480229]
単参照型オブジェクトポーズ推定のための新しいアプローチとベンチマークをUNOPoseと呼ぶ。
粗大なパラダイムに基づいて、UNOPoseはSE(3)不変の参照フレームを構築し、オブジェクト表現を標準化する。
重なり合う領域内に存在すると予測される確率に基づいて、各対応の重みを補正する。
論文 参考訳(メタデータ) (2024-11-25T05:36:00Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - YOLOPose V2: Understanding and Improving Transformer-based 6D Pose
Estimation [36.067414358144816]
YOLOPoseはトランスフォーマーベースの多目的6Dポーズ推定法である。
キーポイントから向きを予測するために,学習可能な向き推定モジュールを用いる。
提案手法はリアルタイムアプリケーションに適した手法であり,最先端の手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2023-07-21T12:53:54Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - BAPose: Bottom-Up Pose Estimation with Disentangled Waterfall
Representations [3.8073142980733]
BAPoseは、多人数ポーズ推定のための最先端結果を実現する新しいフレームワークである。
挑戦的なCOCOとCrowdPoseデータセットに関する我々の結果は、BAPoseが効率的で堅牢なフレームワークであることを示している。
論文 参考訳(メタデータ) (2021-12-20T18:07:09Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - PoseDet: Fast Multi-Person Pose Estimation Using Pose Embedding [16.57620683425904]
本稿では,PoseDet (Estimating Pose by Detection) という,身体関節の局所化と関連付けを同時に行う新しいフレームワークを提案する。
また,キーポイントの位置からオブジェクトを表現するために,キーポイント認識型ポーズ埋め込みを提案する。
この単純なフレームワークは、最先端の手法と比較してCOCOベンチマークで前例のないスピードと競争精度を達成する。
論文 参考訳(メタデータ) (2021-07-22T05:54:00Z) - OmniPose: A Multi-Scale Framework for Multi-Person Pose Estimation [3.8073142980733]
本稿では,多人数ポーズ推定のための最先端結果を実現する,エンドツーエンドのトレーニング可能な単一パスフレームワークを提案する。
OmniPoseはマルチパーソンポーズ推定のための頑健で効率的なアーキテクチャであることを示す。
論文 参考訳(メタデータ) (2021-03-18T11:30:31Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。