論文の概要: RTMPose: Real-Time Multi-Person Pose Estimation based on MMPose
- arxiv url: http://arxiv.org/abs/2303.07399v2
- Date: Mon, 3 Jul 2023 03:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 14:11:41.104072
- Title: RTMPose: Real-Time Multi-Person Pose Estimation based on MMPose
- Title(参考訳): rtmpose:mmposeに基づくリアルタイム多人数ポーズ推定
- Authors: Tao Jiang, Peng Lu, Li Zhang, Ningsheng Ma, Rui Han, Chengqi Lyu,
Yining Li, Kai Chen
- Abstract要約: MMPoseに基づくリアルタイム多人数ポーズ推定フレームワークRTMPoseを提案する。
RTMPose-mはCOCOで75.8%AP、Intel i7-11700 CPUで90以上のFPS、NVIDIA GTX 1660 Ti GPUで430以上のFPSを達成した。
RTMPose-s は COCO 上で 72.2% AP を達成し,Snapdragon 865 チップ上で 70 以上の FPS を達成し,既存のオープンソースライブラリを上回りました。
- 参考スコア(独自算出の注目度): 22.797496394181458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies on 2D pose estimation have achieved excellent performance on
public benchmarks, yet its application in the industrial community still
suffers from heavy model parameters and high latency. In order to bridge this
gap, we empirically explore key factors in pose estimation including paradigm,
model architecture, training strategy, and deployment, and present a
high-performance real-time multi-person pose estimation framework, RTMPose,
based on MMPose. Our RTMPose-m achieves 75.8% AP on COCO with 90+ FPS on an
Intel i7-11700 CPU and 430+ FPS on an NVIDIA GTX 1660 Ti GPU, and RTMPose-l
achieves 67.0% AP on COCO-WholeBody with 130+ FPS. To further evaluate
RTMPose's capability in critical real-time applications, we also report the
performance after deploying on the mobile device. Our RTMPose-s achieves 72.2%
AP on COCO with 70+ FPS on a Snapdragon 865 chip, outperforming existing
open-source libraries. Code and models are released at
https://github.com/open-mmlab/mmpose/tree/1.x/projects/rtmpose.
- Abstract(参考訳): 2次元ポーズ推定に関する最近の研究は、公開ベンチマークで優れた性能を達成しているが、産業コミュニティにおけるその応用は、依然として重いモデルパラメータと高いレイテンシに苦しんでいる。
このギャップを埋めるために、我々は、パラダイム、モデルアーキテクチャ、トレーニング戦略、デプロイメントを含むポーズ推定における重要な要素を経験的に探求し、MMPoseに基づく高性能リアルタイム多人数ポーズ推定フレームワークRTMPoseを提案する。
我々のRTMPose-mは、Intel i7-11700 CPUで75.8%のAP、NVIDIA GTX 1660 Ti GPUで430以上のFPS、COCO-WholeBodyで130以上のFPSで67.0%のAPを達成した。
RTMPoseの重要リアルタイムアプリケーションにおける性能を更に評価するために,モバイルデバイス上でのデプロイ後の性能についても報告する。
RTMPose-s は COCO 上で 72.2% AP を達成し,Snapdragon 865 チップ上で 70 以上の FPS を実現している。
コードとモデルはhttps://github.com/open-mmlab/mmpose/tree/1.x/projects/rtmposeでリリースされる。
関連論文リスト
- RTMW: Real-Time Multi-Person 2D and 3D Whole-body Pose Estimation [9.121372333621538]
全体ポーズ推定は、人体のきめ細かいポーズ情報を予測することを目的としている。
本稿では,RTMW (Real-Time Multi-person Whole-body pose Estimation model) について述べる。
論文 参考訳(メタデータ) (2024-07-11T16:15:47Z) - Green AI: A Preliminary Empirical Study on Energy Consumption in DL
Models Across Different Runtime Infrastructures [56.200335252600354]
トレーニング済みのモデルを、ネイティブな開発環境とは異なる環境にデプロイするのは、一般的なプラクティスです。
これにより、インフラを含むONNXや標準フォーマットとして機能するONNXなどの交換フォーマットが導入された。
論文 参考訳(メタデータ) (2024-02-21T09:18:44Z) - RTMO: Towards High-Performance One-Stage Real-Time Multi-Person Pose Estimation [46.659592045271125]
RTMOは座標分類をシームレスに統合する一段階のポーズ推定フレームワークである。
高速を維持しながらトップダウン手法に匹敵する精度を達成する。
私たちの最大のモデルであるRTMO-lは、COCO val 2017で74.8%AP、1つのV100 GPUで141FPSを実現しています。
論文 参考訳(メタデータ) (2023-12-12T18:55:29Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Benchmarking Edge Computing Devices for Grape Bunches and Trunks
Detection using Accelerated Object Detection Single Shot MultiBox Deep
Learning Models [2.1922186455344796]
この研究は、オブジェクト検出のための異なるプラットフォームのパフォーマンスをリアルタイムでベンチマークする。
著者らは、自然なVineデータセットを使用して、RetinaNet ResNet-50を微調整した。
論文 参考訳(メタデータ) (2022-11-21T17:02:33Z) - Tech Report: One-stage Lightweight Object Detectors [0.38073142980733]
この研究は、mAPと遅延の点でよく機能するワンステージ軽量検出器を設計するためのものである。
GPUとCPUを対象とするベースラインモデルでは、ベースラインモデルのバックボーンネットワークにおけるメイン操作の代わりに、さまざまな操作が適用される。
論文 参考訳(メタデータ) (2022-10-31T09:02:37Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - BottleFit: Learning Compressed Representations in Deep Neural Networks
for Effective and Efficient Split Computing [48.11023234245863]
圧縮速度が強い場合でも高い精度を達成するための新しいトレーニング戦略を含む,BottleFitと呼ばれる新しいフレームワークを提案する。
BottleFitは77.1%のデータ圧縮を実現し、ImageNetデータセットでは最大で0.6%の精度でロスする。
本稿では,BottleFitが消費電力とレイテンシを最大で49%,(w.r.t.)ローカルコンピューティングでは89%,エッジオフロードでは37%,W.r.t.エッジオフロードでは55%削減することを示した。
論文 参考訳(メタデータ) (2022-01-07T22:08:07Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。