論文の概要: VideoRun2D: Cost-Effective Markerless Motion Capture for Sprint Biomechanics
- arxiv url: http://arxiv.org/abs/2409.10175v1
- Date: Mon, 16 Sep 2024 11:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 15:50:18.725673
- Title: VideoRun2D: Cost-Effective Markerless Motion Capture for Sprint Biomechanics
- Title(参考訳): VideoRun2D:スプリントバイオメカニクスのためのコスト効果マーカーレスモーションキャプチャ
- Authors: Gonzalo Garrido-Lopez, Luis F. Gomez, Julian Fierrez, Aythami Morales, Ruben Tolosana, Javier Rueda, Enrique Navarro,
- Abstract要約: スプリントは、特にチームスポーツにおいて、決定的な能力である。スプリントのキネマティクスは、過去にさまざまな方法で研究されてきた。
本研究はまず, 現実的な生体力学解析に2つの一般的なトラッカーを適用し, それらを手動追跡と比較して評価する。
我々は,特にスプリントバイオメカニクスに適応したマーカーレスボディトラッカーを VideoRun2D と呼ぶ。
- 参考スコア(独自算出の注目度): 12.12643642515884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sprinting is a determinant ability, especially in team sports. The kinematics of the sprint have been studied in the past using different methods specially developed considering human biomechanics and, among those methods, markerless systems stand out as very cost-effective. On the other hand, we have now multiple general methods for pixel and body tracking based on recent machine learning breakthroughs with excellent performance in body tracking, but these excellent trackers do not generally consider realistic human biomechanics. This investigation first adapts two of these general trackers (MoveNet and CoTracker) for realistic biomechanical analysis and then evaluate them in comparison to manual tracking (with key points manually marked using the software Kinovea). Our best resulting markerless body tracker particularly adapted for sprint biomechanics is termed VideoRun2D. The experimental development and assessment of VideoRun2D is reported on forty sprints recorded with a video camera from 5 different subjects, focusing our analysis in 3 key angles in sprint biomechanics: inclination of the trunk, flex extension of the hip and the knee. The CoTracker method showed huge differences compared to the manual labeling approach. However, the angle curves were correctly estimated by the MoveNet method, finding errors between 3.2{\deg} and 5.5{\deg}. In conclusion, our proposed VideoRun2D based on MoveNet core seems to be a helpful tool for evaluating sprint kinematics in some scenarios. On the other hand, the observed precision of this first version of VideoRun2D as a markerless sprint analysis system may not be yet enough for highly demanding applications. Future research lines towards that purpose are also discussed at the end: better tracking post-processing and user- and time-dependent adaptation.
- Abstract(参考訳): スプリントは、特にチームスポーツにおいて決定的な能力である。
スプリントのキネマティクスは、人体バイオメカニクスを特化して開発された様々な手法を用いて過去に研究されてきた。
一方,近年の身体追跡性能に優れた機械学習のブレークスルーに基づいて,画素とボディトラッキングの汎用的手法が複数存在するが,これらの優れたトラッカーは現実的な人間のバイオメカニクスを概ね考慮していない。
この調査は、まずこれら2つの一般的なトラッカー(MoveNetとCoTracker)を現実的なバイオメカニカル分析に適用し、手動トラッキング(Kinoveaで手動でマークしたキーポイント)と比較して評価する。
我々は,特にスプリントバイオメカニクスに適応したマーカーレスボディトラッカーを VideoRun2D と呼ぶ。
The experimental development and Assessment of VideoRun2D is reported on forty sprints with a video camera from 5 individuals, focus our analysis in three key angles in sprint biomechanics: inclination of the trunk,flex extension of the hip and the knee。
CoTracker法は手動ラベリング法と比較して大きな違いを示した。
しかし、角度曲線は MoveNet 法で正確に推定され、3.2{\deg と 5.5{\deg の誤差が発見された。
結論として,MoveNet コアをベースとした VideoRun2D は,いくつかのシナリオでスプリントキネマティクスを評価する上で有用なツールであると思われる。
一方,この第1バージョンであるVideoRun2Dのマーカーレススプリント解析システムでは,高要求のアプリケーションでは十分な精度が得られていない。
この目的に向けた今後の研究線についても、後処理のトラッキングの改善とユーザと時間に依存した適応について論じている。
関連論文リスト
- TrackNetV4: Enhancing Fast Sports Object Tracking with Motion Attention Maps [6.548400020461624]
本研究では,高次視覚特徴と学習可能な運動注意マップを融合させることにより,トラックネットファミリーの強化を実現する。
提案手法は,移動プロンプト層によって変調されたフレーム差分マップを利用して,時間とともに重要な動き領域をハイライトする。
我々は、既存のTrackNet上に構築された軽量のプラグイン・アンド・プレイソリューションをTrackNetV4と呼びます。
論文 参考訳(メタデータ) (2024-09-22T17:58:09Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - SportsSloMo: A New Benchmark and Baselines for Human-centric Video Frame
Interpolation [11.198172694893927]
SportsSloMoは、130万本以上のビデオクリップと100万フレームの高解像度(720p)のスローモーションスポーツビデオがYouTubeからクロールされたベンチマークである。
ベンチマークでいくつかの最先端手法を再学習し、その結果、他のデータセットと比較して精度が低下していることを示す。
我々は,人間の認識する先行性を考慮した2つの損失項を導入し,汎視的セグメンテーションと人間のキーポイント検出に補助的監督を加える。
論文 参考訳(メタデータ) (2023-08-31T17:23:50Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Towards Single Camera Human 3D-Kinematics [15.559206592078425]
深層ニューラルネットワークを用いたビデオから直接3次元人体動推定D3KEを提案する。
実験により,提案したエンドツーエンドトレーニングは頑健であり,2次元および3次元マーカーレスモーションキャプチャに基づく運動推定パイプラインよりも優れていた。
論文 参考訳(メタデータ) (2023-01-13T08:44:09Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - Fast and Robust Video-Based Exercise Classification via Body Pose
Tracking and Scalable Multivariate Time Series Classifiers [13.561233730881279]
本稿では,ビデオを用いたS&C演習の分類の応用について述べる。
そこで本研究では,BodyMTSという手法を用いて,映像を時系列に変換する手法を提案する。
その結果,BodyMTSの平均精度は87%であり,これはヒトドメインの専門家の精度よりも有意に高いことがわかった。
論文 参考訳(メタデータ) (2022-10-02T13:03:38Z) - Observation Centric and Central Distance Recovery on Sports Player
Tracking [24.396926939889532]
本稿では,バスケットボール,サッカー,バレーボールを含む3つのスポーツを対象とした,モーションベースのトラッキングアルゴリズムと3つのポストプロセッシングパイプラインを提案する。
本手法は,2022年のSportsmotワークショップ最終リーダーボードで3位にランクインした73.968のHOTAを達成した。
論文 参考訳(メタデータ) (2022-09-27T04:48:11Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。