論文の概要: YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object
Keypoint Similarity Loss
- arxiv url: http://arxiv.org/abs/2204.06806v1
- Date: Thu, 14 Apr 2022 08:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 23:16:25.189519
- Title: YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object
Keypoint Similarity Loss
- Title(参考訳): YOLO-Pose:オブジェクトキーポイント類似性損失を用いたマルチパーソンポーズ推定におけるYOLOの強化
- Authors: Debapriya Maji, Soyeb Nagori, Manu Mathew, Deepak Poddar
- Abstract要約: YOLO-poseは関節検出と2次元多人数ポーズ推定のための新しいヒートマップのないアプローチである。
私たちのフレームワークは、モデルのエンドツーエンドのトレーニングを可能にし、オブジェクトキーポイント類似度(OKS)メトリクス自体を最適化します。
YOLO-poseはCOCO検証(90.2% AP50)とテストデフセット(90.3% AP50)の新たな最先端結果を達成する
- 参考スコア(独自算出の注目度): 1.3381749415517017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce YOLO-pose, a novel heatmap-free approach for joint detection,
and 2D multi-person pose estimation in an image based on the popular YOLO
object detection framework. Existing heatmap based two-stage approaches are
sub-optimal as they are not end-to-end trainable and training relies on a
surrogate L1 loss that is not equivalent to maximizing the evaluation metric,
i.e. Object Keypoint Similarity (OKS). Our framework allows us to train the
model end-to-end and optimize the OKS metric itself. The proposed model learns
to jointly detect bounding boxes for multiple persons and their corresponding
2D poses in a single forward pass and thus bringing in the best of both
top-down and bottom-up approaches. Proposed approach doesn't require the
postprocessing of bottom-up approaches to group detected keypoints into a
skeleton as each bounding box has an associated pose, resulting in an inherent
grouping of the keypoints. Unlike top-down approaches, multiple forward passes
are done away with since all persons are localized along with their pose in a
single inference. YOLO-pose achieves new state-of-the-art results on COCO
validation (90.2% AP50) and test-dev set (90.3% AP50), surpassing all existing
bottom-up approaches in a single forward pass without flip test, multi-scale
testing, or any other test time augmentation. All experiments and results
reported in this paper are without any test time augmentation, unlike
traditional approaches that use flip-test and multi-scale testing to boost
performance. Our training codes will be made publicly available at
https://github.com/TexasInstruments/edgeai-yolov5 and
https://github.com/TexasInstruments/edgeai-yolox
- Abstract(参考訳): 画像中の2次元人物のポーズ推定を,一般的なYOLOオブジェクト検出フレームワークをベースとした,新しいヒートマップのないジョイント検出手法であるYOLO-poseを紹介した。
既存のヒートマップベースの2段階のアプローチは、エンドツーエンドのトレーニングができないため、サブ最適であり、トレーニングは、評価基準、すなわちオブジェクトキーポイント類似度(OKS)の最大化と等価ではない代理L1損失に依存している。
私たちのフレームワークでは、モデルをエンドツーエンドにトレーニングし、OKSメトリック自体を最適化することができます。
提案モデルでは,複数の人に対するバウンディングボックスと対応する2次元ポーズを1つのフォワードパスで共同検出し,トップダウンとボトムアップの両方のアプローチを最大限に活用する。
提案されたアプローチは、検出されたキーポイントをスケルトンにグループ化するためのボトムアップアプローチのプロセス後処理を必要としない。
トップダウンアプローチとは異なり、複数のフォワードパスは、すべての人が単一の推論でポーズとともにローカライズされるため、廃止される。
yolo-pose は coco validation (90.2% ap50) と test-dev set (90.3% ap50) で新たな最先端結果を達成し、フリップテストやマルチスケールテスト、その他のテスト時間の強化なしに、単一のフォワードパスで既存のボトムアップアプローチをすべて上回っている。
従来のフリップテストやマルチスケールテストによるパフォーマンス向上手法とは異なり,本論文で報告したすべての実験と結果は,テスト時間の増大を伴わない。
トレーニングコードはhttps://github.com/TexasInstruments/edgeai-yolov5とhttps://github.com/TexasInstruments/edgeai-yoloxで公開されます。
関連論文リスト
- Rethinking pose estimation in crowds: overcoming the detection
information-bottleneck and ambiguity [46.10812760258666]
個人間の頻繁な相互作用は、ポーズ推定アルゴリズムの基本的な課題である。
ボトムアップ条件付きトップダウンポーズ推定と呼ばれる新しいパイプラインを提案する。
動物と人間のポーズ推定ベンチマークにおけるアプローチの性能と効率を実証する。
論文 参考訳(メタデータ) (2023-06-13T16:14:40Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - Explicit Box Detection Unifies End-to-End Multi-Person Pose Estimation [24.973118696495977]
本稿では,ED-Poseと呼ばれる多人数のPose推定のためのExplicit box Detectionを用いたエンドツーエンドフレームワークを提案する。
ヒューマンレベル(グローバル)とキーポイントレベル(ローカル)情報のコンテキスト学習を統一する。
L1回帰損失の完全なエンドツーエンドフレームワークとして、ED-Poseは、同じバックボーンの下で、ヒートマップベースのトップダウンメソッドを初めて上回った。
論文 参考訳(メタデータ) (2023-02-03T08:18:34Z) - Bottom-Up 2D Pose Estimation via Dual Anatomical Centers for Small-Scale
Persons [75.86463396561744]
マルチパーソン2Dポーズ推定では、ボトムアップ手法は同時にすべての人のポーズを予測する。
本手法は,バウンディングボックス精度を38.4%改善し,バウンディングボックスリコールを39.1%改善した。
ヒトのポーズAP評価では,COCOテストデフセット上で新しいSOTA(71.0 AP)を単一スケールテストで達成する。
論文 参考訳(メタデータ) (2022-08-25T10:09:10Z) - YOLOV: Making Still Image Object Detectors Great at Video Object
Detection [23.039968987772543]
映像オブジェクト検出(VID)は,映像の外観のばらつきやフレームの多様さにより困難である。
この研究は、問題に対処するための単純だが効果的な戦略を提案する。
我々のYOLOXベースのモデルは、有望なパフォーマンスを達成することができる(例えば、1つの2080Ti GPU上のImageNet VIDデータセット上で、30FPS以上の87.5% AP50)。
論文 参考訳(メタデータ) (2022-08-20T14:12:06Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - SMPR: Single-Stage Multi-Person Pose Regression [41.096103136666834]
SMPRと呼ばれる新しいシングルステージ多人数ポーズレグレッションが提示される。
これは、密集した予測のパラダイムに従い、すべての場所からインスタンス対応キーポイントを予測する。
提案手法は,既存の単段法よりも優れているだけでなく,最新のボトムアップ法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-28T11:26:38Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。