論文の概要: All Keypoints You Need: Detecting Arbitrary Keypoints on the Body of
Triple, High, and Long Jump Athletes
- arxiv url: http://arxiv.org/abs/2304.02939v1
- Date: Thu, 6 Apr 2023 08:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 14:47:16.863821
- Title: All Keypoints You Need: Detecting Arbitrary Keypoints on the Body of
Triple, High, and Long Jump Athletes
- Title(参考訳): すべてのキーポイント:トリプル、ハイ、ロングジャンプ選手の身体上の任意のキーポイントを検出する
- Authors: Katja Ludwig, Julian Lorenz, Robin Sch\"on, Rainer Lienhart
- Abstract要約: 本稿では,運動選手の身体の微細な位置を必要とする三段跳躍,高段跳躍,長段跳躍の規律に焦点を当てた。
そこで本研究では,選手の身体全体における任意のキーポイントを検出するために,注釈付きキーポイントと自動生成セグメンテーションマスクの限定セットを活用する手法を提案する。
- 参考スコア(独自算出の注目度): 16.172800007896285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performance analyses based on videos are commonly used by coaches of athletes
in various sports disciplines. In individual sports, these analyses mainly
comprise the body posture. This paper focuses on the disciplines of triple,
high, and long jump, which require fine-grained locations of the athlete's
body. Typical human pose estimation datasets provide only a very limited set of
keypoints, which is not sufficient in this case. Therefore, we propose a method
to detect arbitrary keypoints on the whole body of the athlete by leveraging
the limited set of annotated keypoints and auto-generated segmentation masks of
body parts. Evaluations show that our model is capable of detecting keypoints
on the head, torso, hands, feet, arms, and legs, including also bent elbows and
knees. We analyze and compare different techniques to encode desired keypoints
as the model's input and their embedding for the Transformer backbone.
- Abstract(参考訳): ビデオに基づくパフォーマンス分析は、様々なスポーツ分野のアスリートのコーチによって一般的に使用される。
個々のスポーツにおいて、これらの分析は主に体格を構成する。
本稿では,運動選手の身体の微細な位置を必要とする三段跳躍,高段跳躍,長段跳躍の規律に焦点を当てた。
典型的な人間のポーズ推定データセットは非常に限られたキーポイントのみを提供するが、この場合は不十分である。
そこで本研究では,選手の身体全体における任意のキーポイントを検出するために,注釈付きキーポイントと自動生成セグメンテーションマスクの限定セットを活用する手法を提案する。
評価の結果, 屈曲した肘や膝を含む頭部, 胴体, 手, 足, 腕, 足のキーポイントを検出することができることがわかった。
モデルの入力とトランスフォーマーバックボーンへの埋め込みとして所望のキーポイントをエンコードする様々な手法を分析し比較する。
関連論文リスト
- GoalieNet: A Multi-Stage Network for Joint Goalie, Equipment, and Net
Pose Estimation in Ice Hockey [82.74877848011798]
GoalieNetは多段階のディープニューラルネットワークで、ゴールキーパーのポーズ、機器、ネットを共同で推定する。
NHLベンチマークデータを用いた実験の結果、提案したGoalieNetは、すべてのキーポイントで平均84%の精度を達成可能であることが示された。
論文 参考訳(メタデータ) (2023-06-28T01:00:36Z) - Unsupervised 3D Keypoint Discovery with Multi-View Geometry [104.76006413355485]
本研究では,多視点画像から人体上の3Dキーポイントを,監督やラベルなしで発見するアルゴリズムを提案する。
我々の手法は、他の最先端の教師なしアプローチと比較して、より解釈可能で正確な3Dキーポイントを発見する。
論文 参考訳(メタデータ) (2022-11-23T10:25:12Z) - Detecting Arbitrary Keypoints on Limbs and Skis with Sparse Partly
Correct Segmentation Masks [16.172800007896285]
本稿では,プロスキージャンプ選手の手足とスキーの任意のキーポイントを検出する手法を提案する。
我々のモデルはVision Transformerアーキテクチャに基づいており、入力トークンが所望のキーポイントを問合せするための特別な設計をしている。
論文 参考訳(メタデータ) (2022-11-17T10:25:21Z) - AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - SUPR: A Sparse Unified Part-Based Human Representation [61.693373050670644]
既存の頭と手のモデルでは、これらの部分の完全な動きを捉えることができません。
従来のボディパーツモデルは、個々のパーツに分離された3Dスキャンを使用して訓練されている。
そこで本研究では,全体モデルと特定部分モデルとを共同で学習する学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T09:32:34Z) - DeepSportLab: a Unified Framework for Ball Detection, Player Instance
Segmentation and Pose Estimation in Team Sports Scenes [19.845244830593067]
本稿では,(i)ボールの位置,(ii)ポーズの予測,および(iii)チームスポーツシーンにおける選手のインスタンスマスクをセグメント化するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-01T16:30:51Z) - Keypoint Communities [87.06615538315003]
本稿では,人や物体上の100以上のキーポイントを共同で検出する高速ボトムアップ手法を提案する。
ポーズの異なる部分にトレーニングの重みを割り当てるために、グラフ集中度尺度を使用します。
我々の方法は車のポーズに一般化する。
論文 参考訳(メタデータ) (2021-10-03T11:50:34Z) - Capturing Detailed Deformations of Moving Human Bodies [12.209526373179516]
身体に1000点以上の特異点をサンプリングし,人間の詳細な動きをとらえる新しい方法を提案する。
システムの背後にある重要なアイデアは、チェッカーボードのようなコーナーと2文字のコードを持つ特別なパターンを含む新しいタイプのモーションキャプチャースーツである。
実験では、ヨガや体操、地面転がりなどの挑戦的な動きを含む、さまざまな人間のポーズを高精度にとらえることを示しました。
論文 参考訳(メタデータ) (2021-02-15T04:58:13Z) - Whole-Body Human Pose Estimation in the Wild [88.09875133989155]
COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
論文 参考訳(メタデータ) (2020-07-23T08:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。