論文の概要: Learning Delicate Local Representations for Multi-Person Pose Estimation
- arxiv url: http://arxiv.org/abs/2003.04030v3
- Date: Wed, 15 Jul 2020 13:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:00:30.922965
- Title: Learning Delicate Local Representations for Multi-Person Pose Estimation
- Title(参考訳): マルチパーソンポーズ推定のための局所的局所表現の学習
- Authors: Yuanhao Cai, Zhicheng Wang, Zhengxiong Luo, Binyi Yin, Angang Du,
Haoqian Wang, Xiangyu Zhang, Xinyu Zhou, Erjin Zhou, Jian Sun
- Abstract要約: 我々はResidual Steps Network (RSN) と呼ばれる新しい手法を提案する。
RSNは同じ空間サイズ(イントラレベルの特徴)の機能を効率よく集約し、微妙な局所表現を得る。
当社のアプローチは,COCO Keypoint Challenge 2019で第1位を獲得しました。
- 参考スコア(独自算出の注目度): 77.53144055780423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel method called Residual Steps Network (RSN).
RSN aggregates features with the same spatial size (Intra-level features)
efficiently to obtain delicate local representations, which retain rich
low-level spatial information and result in precise keypoint localization.
Additionally, we observe the output features contribute differently to final
performance. To tackle this problem, we propose an efficient attention
mechanism - Pose Refine Machine (PRM) to make a trade-off between local and
global representations in output features and further refine the keypoint
locations. Our approach won the 1st place of COCO Keypoint Challenge 2019 and
achieves state-of-the-art results on both COCO and MPII benchmarks, without
using extra training data and pretrained model. Our single model achieves 78.6
on COCO test-dev, 93.0 on MPII test dataset. Ensembled models achieve 79.2 on
COCO test-dev, 77.1 on COCO test-challenge dataset. The source code is publicly
available for further research at https://github.com/caiyuanhao1998/RSN/
- Abstract(参考訳): 本稿では,Residual Steps Network (RSN) と呼ばれる新しい手法を提案する。
RSNは、同じ空間サイズ(イントラレベルの特徴)の機能を効率よく集約して、リッチな低レベル空間情報を保持し、正確なキーポイントの局所化をもたらす微妙な局所表現を得る。
さらに、最終的なパフォーマンスに異なる出力特性が寄与するのを観察する。
この問題に対処するため,出力特徴における局所的表現とグローバル的表現とのトレードオフを解消し,キーポイント位置を改良する,効率的な注意機構 - Pose Refine Machine (PRM) を提案する。
われわれのアプローチはCOCO Keypoint Challenge 2019で優勝し、余分なトレーニングデータや事前訓練されたモデルを用いることなく、COCOとMPIIのベンチマークで最先端の結果を得た。
単一モデルはcoco test-devで78.6、mpii test datasetで93.0を達成した。
組立モデルはCOCOテストデーブで79.2、COCOテストチャレンジデータセットで77.1を達成する。
ソースコードはhttps://github.com/caiyuanhao1998/RSN/で公開されている。
関連論文リスト
- The object detection model uses combined extraction with KNN and RF classification [0.0]
本研究は,GLCMとLCPを特徴ベクトルとして組み合わせた新しい手法と,分類のためのVEによる物体検出の分野に寄与する。
システムテストでは4,437枚の2D画像のデータセットを使用し、KNNの精度は92.7%、F1スコアは92.5%、RF性能は低かった。
論文 参考訳(メタデータ) (2024-05-09T05:21:42Z) - PoCo: Point Context Cluster for RGBD Indoor Place Recognition [47.12179061883084]
本稿では,屋内RGB-D位置認識タスクのための新しいエンドツーエンドアルゴリズム(PoCo)を提案する。
本稿では,最近のコンテキスト・オブ・クラスタ(CoC)を一般化したネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-03T17:38:15Z) - VoxelKP: A Voxel-based Network Architecture for Human Keypoint
Estimation in LiDAR Data [53.638818890966036]
textitVoxelKPは、LiDARデータにおける人間のキーポイント推定に適した、完全にスパースなネットワークアーキテクチャである。
本研究では,人間の各インスタンス内のキーポイント間の空間的相関を学習するために,スパースボックスアテンションを導入する。
鳥の視線を符号化する2次元格子に3次元ボクセルを投影する際に, 絶対的な3次元座標を利用するために空間符号化を組み込んだ。
論文 参考訳(メタデータ) (2023-12-11T23:50:14Z) - AANet: Aggregation and Alignment Network with Semi-hard Positive Sample
Mining for Hierarchical Place Recognition [48.043749855085025]
視覚的位置認識(VPR)はロボット工学におけるホットスポットの一つで、視覚情報を用いてロボットの位置を特定する。
本稿では,アグリゲーションモジュールを介して候補を検索するためのグローバルな特徴を抽出できる統一ネットワークを提案する。
また、より堅牢なVPRネットワークをトレーニングするために、適切なハード正のイメージを選択するためのセミハード正のサンプルマイニング(ShPSM)戦略を提案する。
論文 参考訳(メタデータ) (2023-10-08T14:46:11Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Joint COCO and Mapillary Workshop at ICCV 2019: COCO Instance
Segmentation Challenge Track [87.90450014797287]
MegDetV2は2パス方式で動作し、まずインスタンスを検出し、次にセグメンテーションを取得する。
COCO-2019 検出/インスタンス分割テスト-dev データセットでは,2018 年の勝率それぞれ 5.0/4.2 を上回った 61.0/53.1 mAP を達成した。
論文 参考訳(メタデータ) (2020-10-06T04:49:37Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - Graph-PCNN: Two Stage Human Pose Estimation with Graph Pose Refinement [54.29252286561449]
グラフPCNNと呼ばれる2段階のグラフベースおよびモデルに依存しないフレームワークを提案する。
第1段階では、粗局化結果を得るために熱マップ回帰ネットワークを適用し、ガイドポイントと呼ばれる一連の提案キーポイントをサンプリングする。
第2段階では、各案内点について、ローカライゼーションにより異なる視覚特徴を抽出する。
ガイドされた点間の関係は、より正確なローカライゼーション結果を得るためにグラフポーズ精製モジュールによって探索される。
論文 参考訳(メタデータ) (2020-07-21T04:59:15Z) - Joint COCO and Mapillary Workshop at ICCV 2019 Keypoint Detection
Challenge Track Technical Report: Distribution-Aware Coordinate
Representation for Human Pose Estimation [36.73217430761146]
人間のポーズ推定における座標表現に着目した。
本稿では,分散認識型復号法を提案する。
それらを組み合わせて,キーポイント(DARK)法のための新しい分布認識座標表現を定式化する。
論文 参考訳(メタデータ) (2020-03-13T10:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。